当前位置: X-MOL 学术arXiv.cs.NE › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Transformer-based Machine Learning for Fast SAT Solvers and Logic Synthesis
arXiv - CS - Neural and Evolutionary Computing Pub Date : 2021-07-15 , DOI: arxiv-2107.07116
Feng Shi, Chonghan Lee, Mohammad Khairul Bashar, Nikhil Shukla, Song-Chun Zhu, Vijaykrishnan Narayanan

CNF-based SAT and MaxSAT solvers are central to logic synthesis and verification systems. The increasing popularity of these constraint problems in electronic design automation encourages studies on different SAT problems and their properties for further computational efficiency. There has been both theoretical and practical success of modern Conflict-driven clause learning SAT solvers, which allows solving very large industrial instances in a relatively short amount of time. Recently, machine learning approaches provide a new dimension to solving this challenging problem. Neural symbolic models could serve as generic solvers that can be specialized for specific domains based on data without any changes to the structure of the model. In this work, we propose a one-shot model derived from the Transformer architecture to solve the MaxSAT problem, which is the optimization version of SAT where the goal is to satisfy the maximum number of clauses. Our model has a scale-free structure which could process varying size of instances. We use meta-path and self-attention mechanism to capture interactions among homogeneous nodes. We adopt cross-attention mechanisms on the bipartite graph to capture interactions among heterogeneous nodes. We further apply an iterative algorithm to our model to satisfy additional clauses, enabling a solution approaching that of an exact-SAT problem. The attention mechanisms leverage the parallelism for speedup. Our evaluation indicates improved speedup compared to heuristic approaches and improved completion rate compared to machine learning approaches.

中文翻译:

用于快速 SAT 求解器和逻辑综合的基于变压器的机器学习

基于 CNF 的 SAT 和 MaxSAT 求解器是逻辑综合和验证系统的核心。这些约束问题在电子设计自动化中的日益流行鼓励了对不同 SAT 问题及其属性的研究,以提高计算效率。现代冲突驱动条款学习 SAT 求解器在理论上和实践上都取得了成功,它允许在相对较短的时间内解决非常大的工业实例。最近,机器学习方法为解决这个具有挑战性的问题提供了一个新的维度。神经符号模型可以用作通用求解器,可以根据数据专门用于特定领域,而无需对模型结构进行任何更改。在这项工作中,我们提出了一种源自 Transformer 架构的一次性模型来解决 MaxSAT 问题,这是 SAT 的优化版本,其目标是满足最大数量的子句。我们的模型具有无标度结构,可以处理不同大小的实例。我们使用元路径和自注意力机制来捕获同类节点之间的交互。我们在二部图上采用交叉注意机制来捕获异构节点之间的交互。我们进一步将迭代算法应用于我们的模型以满足附加条款,从而实现接近精确 SAT 问题的解决方案。注意机制利用并行性来加速。我们的评估表明,与启发式方法相比加快了速度,与机器学习方法相比提高了完成率。我们的模型具有无标度结构,可以处理不同大小的实例。我们使用元路径和自注意力机制来捕获同类节点之间的交互。我们在二部图上采用交叉注意机制来捕获异构节点之间的交互。我们进一步将迭代算法应用于我们的模型以满足附加条款,从而实现接近精确 SAT 问题的解决方案。注意机制利用并行性来加速。我们的评估表明,与启发式方法相比加快了速度,与机器学习方法相比提高了完成率。我们的模型具有无标度结构,可以处理不同大小的实例。我们使用元路径和自注意力机制来捕获同类节点之间的交互。我们在二部图上采用交叉注意机制来捕获异构节点之间的交互。我们进一步将迭代算法应用于我们的模型以满足附加条款,从而实现接近精确 SAT 问题的解决方案。注意机制利用并行性来加速。我们的评估表明,与启发式方法相比加快了速度,与机器学习方法相比提高了完成率。我们在二部图上采用交叉注意机制来捕获异构节点之间的交互。我们进一步将迭代算法应用于我们的模型以满足附加条款,从而实现接近精确 SAT 问题的解决方案。注意机制利用并行性来加速。我们的评估表明,与启发式方法相比加快了速度,与机器学习方法相比提高了完成率。我们在二部图上采用交叉注意机制来捕获异构节点之间的交互。我们进一步将迭代算法应用于我们的模型以满足附加条款,从而实现接近精确 SAT 问题的解决方案。注意机制利用并行性来加速。我们的评估表明,与启发式方法相比加快了速度,与机器学习方法相比提高了完成率。
更新日期:2021-07-16
down
wechat
bug