当前位置: X-MOL 学术Current Directions in Psychological Science › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Similarity of Computations Across Domains Does Not Imply Shared Implementation: The Case of Language Comprehension
Current Directions in Psychological Science ( IF 7.867 ) Pub Date : 2021-12-14 , DOI: 10.1177/09637214211046955
Evelina Fedorenko 1 , Cory Shain 1
Affiliation  

Understanding language requires applying cognitive operations (e.g., memory retrieval, prediction, structure building) that are relevant across many cognitive domains to specialized knowledge structures (e.g., a particular language’s lexicon and syntax). Are these computations carried out by domain-general circuits or by circuits that store domain-specific representations? Recent work has characterized the roles in language comprehension of the language network, which is selective for high-level language processing, and the multiple-demand (MD) network, which has been implicated in executive functions and linked to fluid intelligence and thus is a prime candidate for implementing computations that support information processing across domains. The language network responds robustly to diverse aspects of comprehension, but the MD network shows no sensitivity to linguistic variables. We therefore argue that the MD network does not play a core role in language comprehension and that past findings suggesting the contrary are likely due to methodological artifacts. Although future studies may reveal some aspects of language comprehension that require the MD network, evidence to date suggests that those will not be related to core linguistic processes such as lexical access or composition. The finding that the circuits that store linguistic knowledge carry out computations on those representations aligns with general arguments against the separation of memory and computation in the mind and brain.



中文翻译:

跨域计算的相似性并不意味着共享实现:语言理解的案例

理解语言需要将与许多认知领域相关的认知操作(例如,记忆检索、预测、结构构建)应用于专门的知识结构(例如,特定语言的词典和句法)。这些计算是由域通用电路还是由存储域特定表示的电路执行的?最近的工作已经描述了语言网络的语言理解中的作用,该网络对高级语言处理具有选择性,而多需求(MD)网络与执行功能有关并与流体智能相关,因此是实现支持跨域信息处理的计算的主要候选人。语言网络对理解的各个方面做出强有力的反应,但 MD 网络对语言变量不敏感。因此,我们认为 MD 网络在语言理解中没有发挥核心作用,而过去的研究结果表明相反的结果可能是由于方法论的人工产物。尽管未来的研究可能会揭示需要 MD 网络的语言理解的某些方面,但迄今为止的证据表明,这些方面与核心语言过程无关,例如词汇访问或组合。存储语言知识的电路对这些表示进行计算的发现与反对大脑和大脑中的记忆和计算分离的一般论点一致。因此,我们认为 MD 网络在语言理解中没有发挥核心作用,而过去的研究结果表明相反的结果可能是由于方法论的人工产物。尽管未来的研究可能会揭示需要 MD 网络的语言理解的某些方面,但迄今为止的证据表明,这些方面与核心语言过程无关,例如词汇访问或组合。存储语言知识的电路对这些表示进行计算的发现与反对大脑和大脑中的记忆和计算分离的一般论点一致。因此,我们认为 MD 网络在语言理解中没有发挥核心作用,而过去的研究结果表明相反的结果可能是由于方法论的人工产物。尽管未来的研究可能会揭示需要 MD 网络的语言理解的某些方面,但迄今为止的证据表明,这些方面与核心语言过程无关,例如词汇访问或组合。存储语言知识的电路对这些表示进行计算的发现与反对大脑和大脑中的记忆和计算分离的一般论点一致。迄今为止的证据表明,这些与核心语言过程无关,例如词汇访问或组合。存储语言知识的电路对这些表示进行计算的发现与反对大脑和大脑中的记忆和计算分离的一般论点一致。迄今为止的证据表明,这些与核心语言过程无关,例如词汇访问或组合。存储语言知识的电路对这些表示进行计算的发现与反对大脑和大脑中的记忆和计算分离的一般论点一致。

更新日期:2021-12-14
down
wechat
bug