当前位置: X-MOL 学术arXiv.cs.CC › 论文详情
Training Neural Networks is ER-complete
arXiv - CS - Computational Complexity Pub Date : 2021-02-19 , DOI: arxiv-2102.09798
Mikkel Abrahamsen; Linda Kleist; Tillmann Miltzow

Given a neural network, training data, and a threshold, it was known that it is NP-hard to find weights for the neural network such that the total error is below the threshold. We determine the algorithmic complexity of this fundamental problem precisely, by showing that it is ER-complete. This means that the problem is equivalent, up to polynomial-time reductions, to deciding whether a system of polynomial equations and inequalities with integer coefficients and real unknowns has a solution. If, as widely expected, ER is strictly larger than NP, our work implies that the problem of training neural networks is not even in NP.

中文翻译:

训练神经网络是ER完成的

给定一个神经网络,训练数据和一个阈值,已知很难找到神经网络的权重以使总误差低于阈值是NP。通过证明它是ER完全的,我们可以精确地确定此基本问题的算法复杂性。这意味着直到确定多项式时间减少为止,问题等同于确定具有整数系数和实数未知数的多项式方程和不等式系统是否具有解决方案。如果人们普遍认为ER严格大于NP,则我们的工作意味着训练神经网络的问题甚至不在NP中。
更新日期:2021-02-22
全部期刊列表>>
2021新春特辑
SN Applied Sciences期刊征稿中
虚拟特刊
亚洲大洋洲地球科学
NPJ欢迎投稿
自然科研论文编辑
ERIS期刊投稿
欢迎阅读创刊号
自然职场,为您触达千万科研人才
spring&清华大学出版社
城市可持续发展前沿研究专辑
Springer 纳米技术权威期刊征稿
全球视野覆盖
施普林格·自然新
chemistry
物理学研究前沿热点精选期刊推荐
自然职位线上招聘会
欢迎报名注册2020量子在线大会
化学领域亟待解决的问题
材料学研究精选新
GIANT
ACS ES&T Engineering
ACS ES&T Water
屿渡论文,编辑服务
阿拉丁试剂right
上海中医药大学
哈工大
西湖大学
化学所
北京大学
山东大学
隐藏1h前已浏览文章
课题组网站
新版X-MOL期刊搜索和高级搜索功能介绍
ACS材料视界
南方科技大学
张凤娇
中国石油大学
天合科研
x-mol收录
试剂库存
down
wechat
bug