当前位置: X-MOL 学术Cognition › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Eye movements and the label feedback effect: Speaking modulates visual search via template integrity
Cognition ( IF 2.8 ) Pub Date : 2021-01-25 , DOI: 10.1016/j.cognition.2021.104587
Katherine P Hebert 1 , Stephen D Goldinger 1 , Stephen C Walenchok 1
Affiliation  

The label-feedback hypothesis (Lupyan, 2012) proposes that language modulates low- and high-level visual processing, such as priming visual object perception. Lupyan and Swingley (2012) found that repeating target names facilitates visual search, resulting in shorter response times (RTs) and higher accuracy. In the present investigation, we conceptually replicated and extended their study, using additional control conditions and recording eye movements during search. Our goal was to evaluate whether self-directed speech influences target locating (i.e. attentional guidance) or object perception (i.e., distractor rejection and target appreciation). In three experiments, during object search, people spoke target names, nonwords, irrelevant (absent) object names, or irrelevant (present) object names (all within-participants). Experiments 1 and 2 examined search RTs and accuracy: Speaking target names improved performance, without differences among the remaining conditions. Experiment 3 incorporated eye-tracking: Gaze fixation patterns suggested that language does not affect attentional guidance, but instead affects both distractor rejection and target appreciation. When search trials were conditionalized according to distractor fixations, language effects became more orderly: Search was fastest while people spoke target names, followed in linear order by the nonword, distractor-absent, and distractor-present conditions. We suggest that language affects template maintenance during search, allowing fluent differentiation of targets and distractors. Materials, data, and analyses can be retrieved here: https://osf.io/z9ex2/



中文翻译:

眼动和标签反馈效果:说话通过模板完整性调节视觉搜索

标签反馈假设(Lupyan,2012)提出,语言会调节低级和高级视觉处理,例如启动视觉对象感知。Lupyan和Swingley(2012)发现重复的目标名称有助于视觉搜索,从而缩短了响应时间(RTs),提高了准确性。在当前的调查中,我们在概念上复制并扩展了他们的研究,使用了其他控制条件并记录了搜索过程中的眼睛运动。我们的目标是评估自我指导的语音是否会影响目标的定位(即注意指导)或物体的感知(即,干扰项的排斥和目标的欣赏)。在三个实验中,在对象搜索过程中,人们说出了目标名称,非单词,不相关(不存在)的对象名称或不相关(当前)的对象名称(所有参与者)。实验1和2检查了搜索RT和准确性:说出目标名称可以改善性能,而其余条件之间没有差异。实验3包含了眼动追踪功能:注视注视模式表明语言不会影响注意力指导,而是会影响注意力分散和目标欣赏。当根据干扰因素的使用条件对搜索试验进行条件化时,语言效果变得更加有序:人们说出目标名称时,搜索速度最快,其后依次是无字词,不存在干扰因素和存在干扰因素的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/ 讲目标的姓名可以提高性能,而其余条件之间没有差异。实验3包含了眼动追踪功能:注视注视模式表明语言不会影响注意力指导,而是会影响注意力分散和目标欣赏。当根据干扰因素的使用条件对搜索试验进行条件化时,语言效果变得更加有序:人们说出目标名称时,搜索速度最快,其后依次是无字词,不存在干扰因素和存在干扰因素的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/ 讲目标的姓名可以提高性能,而其余条件之间没有差异。实验3包含了眼动追踪功能:注视注视模式表明语言不会影响注意力指导,而是会影响注意力分散和目标欣赏。当根据干扰因素的使用条件对搜索试验进行条件化时,语言效果变得更加有序:人们说出目标名称时,搜索速度最快,其后依次是无字词,不存在干扰因素和存在干扰因素的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/ 注视注视模式表明语言不会影响注意力指导,而是会影响注意力分散和目标欣赏。当根据干扰因素的使用条件对搜索试验进行条件化时,语言效果变得更加有序:人们说出目标名称时,搜索速度最快,其后依次是无字词,不存在干扰因素和存在干扰因素的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/ 注视注视模式表明语言不会影响注意力指导,而是会影响注意力分散和目标欣赏。当根据干扰因素的使用条件对搜索试验进行条件化时,语言效果变得更加有序:人们说出目标名称时,搜索速度最快,其后依次是无字词,不存在干扰因素和存在干扰因素的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/ 语言效果变得更加有序:当人们说出目标名称时,搜索速度最快,其后依次是无字词,无干扰者和无干扰者的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/ 语言的影响变得更加有序:当人们说出目标名称时,搜索速度最快,其后依次是无字词,无干扰者和无干扰者的情况。我们建议,语言会影响搜索过程中的模板维护,从而使目标语和干扰语能流畅区分。可以在这里检索材料,数据和分析:https://osf.io/z9ex2/

更新日期:2021-01-28
down
wechat
bug