当前位置: X-MOL 学术Rev. Symb. Log. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A LEARNING-THEORETIC CHARACTERISATION OF MARTIN-LÖF RANDOMNESS AND SCHNORR RANDOMNESS
The Review of Symbolic Logic ( IF 0.9 ) Pub Date : 2019-11-04 , DOI: 10.1017/s175502031900042x
FRANCESCA ZAFFORA BLANDO

Numerous learning tasks can be described as the process of extrapolating patterns from observed data. One of the driving intuitions behind the theory of algorithmic randomness is that randomness amounts to the absence of any effectively detectable patterns: it is thus natural to regard randomness as antithetical to inductive learning. Osherson and Weinstein [11] draw upon the identification of randomness with unlearnability to introduce a learning-theoretic framework (in the spirit of formal learning theory) for modelling algorithmic randomness. They define two success criteria—specifying under what conditions a pattern may be said to have been detected by a computable learning function—and prove that the collections of data sequences on which these criteria cannot be satisfied correspond to the set of weak 1-randoms and the set of weak 2-randoms, respectively. This learning-theoretic approach affords an intuitive perspective on algorithmic randomness, and it invites the question of whether restricting attention to learning-theoretic success criteria comes at an expressivity cost. In other words, is the framework expressive enough to capture most core algorithmic randomness notions and, in particular, Martin-Löf randomness—arguably, the most prominent algorithmic randomness notion in the literature? In this article, we answer the latter question in the affirmative by providing a learning-theoretic characterisation of Martin-Löf randomness. We then show that Schnorr randomness, another central algorithmic randomness notion, also admits a learning-theoretic characterisation in this setting.

中文翻译:

MARTIN-LÖF 随机性和 SCHNORR 随机性的学习理论表征

许多学习任务可以描述为从观察到的数据中推断模式的过程。算法随机性理论背后的驱动直觉之一是随机性等于没有任何有效的可检测模式:因此将随机性视为与归纳学习的对立面是很自然的。Osherson 和 Weinstein [11] 利用对随机性和不可学习性的识别,引入了一个学习理论框架(本着形式学习理论的精神)来建模算法随机性。他们定义了两个成功标准——指定在什么条件下可以说模式已被可计算学习函数检测到——并证明不能满足这些标准的数据序列集合对应于弱 1-随机数和弱 2 随机数的集合,分别。这种学习理论方法为算法随机性提供了一个直观的视角,它引发了一个问题,即限制对学习理论成功标准的关注是否会以表达成本为代价。换句话说,该框架是否足够表达以捕捉大多数核心算法随机性概念,特别是 Martin-Löf 随机性——可以说是文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。这种学习理论方法为算法随机性提供了一个直观的视角,它引发了一个问题,即限制对学习理论成功标准的关注是否会以表达成本为代价。换句话说,该框架是否足够表达以捕捉大多数核心算法随机性概念,特别是 Martin-Löf 随机性——可以说是文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。这种学习理论方法为算法随机性提供了一个直观的视角,它引发了一个问题,即限制对学习理论成功标准的关注是否会以表达成本为代价。换句话说,该框架是否足够表达以捕捉大多数核心算法随机性概念,特别是 Martin-Löf 随机性——可以说是文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。它引发了一个问题,即限制对学习理论成功标准的关注是否会以表达成本为代价。换句话说,该框架是否足够表达以捕捉大多数核心算法随机性概念,特别是 Martin-Löf 随机性——可以说是文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。它引发了一个问题,即限制对学习理论成功标准的关注是否会以表达成本为代价。换句话说,该框架是否足够表达以捕捉大多数核心算法随机性概念,特别是 Martin-Löf 随机性——可以说是文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。文献中最突出的算法随机性概念?在本文中,我们通过提供 Martin-Löf 随机性的学习理论表征来肯定地回答后一个问题。然后,我们证明 Schnorr 随机性,另一个核心算法随机性概念,也承认在这种情况下的学习理论特征。
更新日期:2019-11-04
down
wechat
bug