当前位置: X-MOL 学术Neural Comput. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Bayesian Filtering with Multiple Internal Models: Toward a Theory of Social Intelligence
Neural Computation ( IF 2.9 ) Pub Date : 2019-12-01 , DOI: 10.1162/neco_a_01239
Takuya Isomura 1 , Thomas Parr 2 , Karl Friston 2
Affiliation  

To exhibit social intelligence, animals have to recognize whom they are communicating with. One way to make this inference is to select among internal generative models of each conspecific who may be encountered. However, these models also have to be learned via some form of Bayesian belief updating. This induces an interesting problem: When receiving sensory input generated by a particular conspecific, how does an animal know which internal model to update? We consider a theoretical and neurobiologically plausible solution that enables inference and learning of the processes that generate sensory inputs (e.g., listening and understanding) and reproduction of those inputs (e.g., talking or singing), under multiple generative models. This is based on recent advances in theoretical neurobiology—namely, active inference and post hoc (online) Bayesian model selection. In brief, this scheme fits sensory inputs under each generative model. Model parameters are then updated in proportion to the probability that each model could have generated the input (i.e., model evidence). The proposed scheme is demonstrated using a series of (real zebra finch) birdsongs, where each song is generated by several different birds. The scheme is implemented using physiologically plausible models of birdsong production. We show that generalized Bayesian filtering, combined with model selection, leads to successful learning across generative models, each possessing different parameters. These results highlight the utility of having multiple internal models when making inferences in social environments with multiple sources of sensory information.

中文翻译:

具有多个内部模型的贝叶斯过滤:走向社会智能理论

为了表现出社会智能,动物必须识别他们正在与谁交流。进行这种推断的一种方法是在可能遇到的每个同种人的内部生成模型中进行选择。然而,这些模型也必须通过某种形式的贝叶斯信念更新来学习。这引发了一个有趣的问题:当接收由特定同种产生的感官输入时,动物如何知道要更新哪个内部模型?我们考虑了一种理论上和神经生物学上可行的解决方案,该解决方案能够在多个生成模型下对产生感官输入(例如,聆听和理解)和这些输入(例如,说话或唱歌)的再现过程进行推理和学习。这是基于理论神经生物学的最新进展——即,主动推理和事后(在线)贝叶斯模型选择。简而言之,该方案适合每个生成模型下的感官输入。然后根据每个模型生成输入(即模型证据)的概率按比例更新模型参数。使用一系列(真正的斑胸草雀)鸟鸣来演示所提出的方案,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。简而言之,该方案适合每个生成模型下的感官输入。然后根据每个模型生成输入(即模型证据)的概率按比例更新模型参数。使用一系列(真正的斑胸草雀)鸟鸣来演示所提出的方案,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。简而言之,该方案适合每个生成模型下的感官输入。然后,模型参数与每个模型可能生成输入(即模型证据)的概率成比例地更新。使用一系列(真正的斑胸草雀)鸟鸣来演示所提出的方案,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。然后根据每个模型生成输入(即模型证据)的概率按比例更新模型参数。使用一系列(真正的斑胸草雀)鸟鸣来演示所提出的方案,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。然后根据每个模型生成输入(即模型证据)的概率按比例更新模型参数。使用一系列(真正的斑胸草雀)鸟鸣来演示所提出的方案,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。所提出的方案使用一系列(真正的斑胸草雀)鸟鸣进行演示,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。使用一系列(真正的斑胸草雀)鸟鸣来演示所提出的方案,其中每首歌曲都由几种不同的鸟类产生。该计划是使用鸟鸣生产的生理学合理模型实施的。我们表明,广义贝叶斯过滤与模型选择相结合,可以成功地跨生成模型进行学习,每个模型都具有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。导致跨生成模型的成功学习,每个模型都拥有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。导致跨生成模型的成功学习,每个模型都拥有不同的参数。这些结果突出了在具有多种感官信息来源的社会环境中进行推理时拥有多个内部模型的效用。
更新日期:2019-12-01
down
wechat
bug