当前位置:
X-MOL 学术
›
arXiv.cs.LO
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
Formal Synthesis of Lyapunov Neural Networks
arXiv - CS - Logic in Computer Science Pub Date : 2020-03-19 , DOI: arxiv-2003.08910 Alessandro Abate, Daniele Ahmed, Mirco Giacobbe, and Andrea Peruffo
arXiv - CS - Logic in Computer Science Pub Date : 2020-03-19 , DOI: arxiv-2003.08910 Alessandro Abate, Daniele Ahmed, Mirco Giacobbe, and Andrea Peruffo
We propose an automatic and formally sound method for synthesising Lyapunov
functions for the asymptotic stability of autonomous non-linear systems.
Traditional methods are either analytical and require manual effort or are
numerical but lack of formal soundness. Symbolic computational methods for
Lyapunov functions, which are in between, give formal guarantees but are
typically semi-automatic because they rely on the user to provide appropriate
function templates. We propose a method that finds Lyapunov functions fully
automatically$-$using machine learning$-$while also providing formal
guarantees$-$using satisfiability modulo theories (SMT). We employ a
counterexample-guided approach where a numerical learner and a symbolic
verifier interact to construct provably correct Lyapunov neural networks
(LNNs). The learner trains a neural network that satisfies the Lyapunov
criteria for asymptotic stability over a samples set; the verifier proves via
SMT solving that the criteria are satisfied over the whole domain or augments
the samples set with counterexamples. Our method supports neural networks with
polynomial activation functions and multiple depth and width, which display
wide learning capabilities. We demonstrate our method over several non-trivial
benchmarks and compare it favourably against a numerical optimisation-based
approach, a symbolic template-based approach, and a cognate LNN-based approach.
Our method synthesises Lyapunov functions faster and over wider spatial domains
than the alternatives, yet providing stronger or equal guarantees.
中文翻译:
Lyapunov 神经网络的形式综合
我们提出了一种自动且形式上合理的方法来合成 Lyapunov 函数以实现自治非线性系统的渐近稳定性。传统方法要么是分析性的,需要人工操作,要么是数值型的,但缺乏形式上的合理性。介于两者之间的李雅普诺夫函数的符号计算方法提供了形式保证,但通常是半自动的,因为它们依赖于用户提供适当的函数模板。我们提出了一种方法,它使用机器学习$-$ 完全自动地找到Lyapunov 函数$-$,同时还使用可满足性模理论(SMT)提供形式保证$-$。我们采用反例引导的方法,其中数值学习器和符号验证器相互作用以构建可证明正确的 Lyapunov 神经网络 (LNN)。学习器训练一个神经网络,该网络满足样本集上渐近稳定性的李雅普诺夫准则;验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。
更新日期:2020-06-25
中文翻译:
Lyapunov 神经网络的形式综合
我们提出了一种自动且形式上合理的方法来合成 Lyapunov 函数以实现自治非线性系统的渐近稳定性。传统方法要么是分析性的,需要人工操作,要么是数值型的,但缺乏形式上的合理性。介于两者之间的李雅普诺夫函数的符号计算方法提供了形式保证,但通常是半自动的,因为它们依赖于用户提供适当的函数模板。我们提出了一种方法,它使用机器学习$-$ 完全自动地找到Lyapunov 函数$-$,同时还使用可满足性模理论(SMT)提供形式保证$-$。我们采用反例引导的方法,其中数值学习器和符号验证器相互作用以构建可证明正确的 Lyapunov 神经网络 (LNN)。学习器训练一个神经网络,该网络满足样本集上渐近稳定性的李雅普诺夫准则;验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。