当前位置: X-MOL 学术Topics in Cognitive Science › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
The Role of Basal Ganglia Reinforcement Learning in Lexical Ambiguity Resolution.
Topics in Cognitive Science ( IF 3.265 ) Pub Date : 2020-02-05 , DOI: 10.1111/tops.12488
Jose M Ceballos 1, 2 , Andrea Stocco 1 , Chantel S Prat 1
Affiliation  

The current study aimed to elucidate the contributions of the subcortical basal ganglia to human language by adopting the view that these structures engage in a basic neurocomputation that may account for its involvement across a wide range of linguistic phenomena. Specifically, we tested the hypothesis that basal ganglia reinforcement learning (RL) mechanisms may account for variability in semantic selection processes necessary for ambiguity resolution. To test this, we used a biased homograph lexical ambiguity priming task that allowed us to measure automatic processes for resolving ambiguity toward high‐frequency word meanings. Individual differences in task performance were then related to indices of basal ganglia RL, which were used to group subjects into three learning styles: (a) Choosers who learn by seeking high reward probability stimuli; (b) Avoiders, who learn by avoiding low reward probability stimuli; and (c) Balanced participants, whose learning reflects equal contributions of choose and avoid processes. The results suggest that balanced individuals had significantly lower access to subordinate, or low‐frequency, homograph word meanings. Choosers and Avoiders, on the other hand, had higher access to the subordinate word meaning even after a long delay between prime and target. Experimental findings were then tested using an ACT‐R computational model of RL that learns from both positive and negative feedback. Results from the computational model simulations confirm and extend the pattern of behavioral findings, providing an RL account of individual differences in lexical ambiguity resolution.

中文翻译:

基础神经节强化学习在词汇歧义解决中的作用。

当前的研究旨在阐明皮质下基底神经节对人类语言的贡献,方法是认为这些结构参与了一种基本的神经计算,这可能解释了其参与了广泛的语言现象。具体来说,我们测试了以下假设:基底神经节强化学习(RL)机制可能解释了歧义解决所需的语义选择过程中的可变性。为了对此进行测试,我们使用了有偏应的单应词词汇歧义启动任务,该任务使我们能够测量自动过程以解决针对高频词义的歧义。任务绩效的个体差异则与基底神经节RL的指数有关,该指数用于将科目分为三种学习方式:(a)通过寻求高奖励概率刺激而学习的选择者;(b)避免者,他们通过避免低奖励概率刺激来学习;(c)平衡的参与者,他们的学习反映了选择和避免过程的平等贡献。结果表明,平衡的个体对从属或低频单应词含义的访问率明显较低。另一方面,选择者和回避者即使在素数和目标之间有很长的延迟之后,也有较高的机会使用从词。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。(c)平衡的参与者,他们的学习反映了选择和避免过程的平等贡献。结果表明,平衡的个体对从属或低频单应词含义的访问率明显较低。另一方面,选择者和回避者即使在素数和目标之间有很长的延迟之后,也有较高的机会使用从词。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。(c)平衡的参与者,他们的学习反映了选择和避免过程的平等贡献。结果表明,平衡的个体对从属或低频单应词含义的访问率明显较低。另一方面,选择者和回避者即使在素数和目标之间有很长的延迟之后,也有较高的机会使用从词。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。结果表明,平衡的个体对从属或低频单应词含义的访问率明显较低。另一方面,选择者和回避者即使在素数和目标之间有很长的延迟之后,也有较高的机会使用从词。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。结果表明,平衡的个体对从属或低频单应词含义的访问率明显较低。另一方面,选择者和回避者即使在素数和目标之间有很长的延迟之后,也有较高的机会使用从词。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。然后使用RL的ACT‐R计算模型对实验结果进行测试,该模型从正反馈和负反馈中学习。计算模型仿真的结果证实并扩展了行为发现的模式,为词汇歧义解决方案中的个体差异提供了RL解释。
更新日期:2020-02-05
down
wechat
bug