当前位置: X-MOL 学术Psychophysiology › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Cross-modal predictive processing depends on context rather than local contingencies
Psychophysiology ( IF 2.9 ) Pub Date : 2021-03-15 , DOI: 10.1111/psyp.13811
Tjerk T Dercksen 1, 2, 3 , Maria V Stuckenberg 1, 4 , Erich Schröger 1 , Nicole Wetzel 2, 3 , Andreas Widmann 1, 2
Affiliation  

Visual symbols or events may provide predictive information on to-be-expected sound events. When the perceived sound does not confirm the visual prediction, the incongruency response (IR), a prediction error signal of the event-related brain potentials, is elicited. It is unclear whether predictions are derived from lower-level local contingencies (e.g., recent events or repetitions) or from higher-level global rules applied top-down. In a recent study, sound pitch was predicted by a preceding note symbol. IR elicitation was confined to the condition where one of two sounds was presented more frequently and was not present with equal probability of both sounds. These findings suggest that local repetitions support predictive cross-modal processing. On the other hand, IR has also been observed with equal stimulus probabilities, where visual patterns predicted the upcoming sound sequence. This suggests the application of global rules. Here, we investigated the influence of stimulus repetition on the elicitation of the IR by presenting identical trial trains of a particular visual note symbol cueing a particular sound resulting either in a congruent or an incongruent pair. Trains of four different lengths: 1, 2, 4, or 7 were presented. The IR was observed already after a single presentation of a congruent visual-cue-sound combination and did not change in amplitude as trial train length increased. We conclude that higher-level associations applied in a top-down manner are involved in elicitation of the prediction error signal reflected by the IR, independent from local contingencies.

中文翻译:

跨模态预测处理依赖于上下文而不是本地突发事件

视觉符号或事件可以提供关于预期声音事件的预测信息。当感知到的声音不能证实视觉预测时,就会引发与事件相关的脑电位的预测误差信号——不一致反应 (IR)。目前尚不清楚预测是来自较低级别的局部意外事件(例如,最近的事件或重复事件)还是来自自上而下应用的更高级别的全局规则。在最近的一项研究中,音高是通过前面的音符符号来预测的。IR 激发仅限于两种声音之一出现频率更高且两种声音出现概率不同的情况。这些发现表明,局部重复支持预测性跨模态处理。另一方面,IR 也被观察到具有相同的刺激概率,视觉模式预测即将到来的声音序列。这表明了全局规则的应用。在这里,我们通过呈现特定视觉音符符号的相同试验序列来研究刺激重复对 IR 激发的影响,该试验序列提示特定声音,导致一致或不一致的对。展示了四种不同长度的火车:1、2、4 或 7。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。在这里,我们通过呈现特定视觉音符符号的相同试验序列来研究刺激重复对 IR 激发的影响,该试验序列提示特定声音,导致一致或不一致的对。展示了四种不同长度的火车:1、2、4 或 7。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。在这里,我们通过呈现特定视觉音符符号的相同试验序列来研究刺激重复对 IR 激发的影响,该试验序列提示特定声音,导致一致或不一致的对。展示了四种不同长度的火车:1、2、4 或 7。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。我们通过呈现特定视觉音符符号的相同试验序列来研究刺激重复对 IR 激发的影响,该试验序列提示特定声音,导致一致或不一致的对。展示了四种不同长度的火车:1、2、4 或 7。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。我们通过呈现特定视觉音符符号的相同试验序列来研究刺激重复对 IR 激发的影响,该试验序列提示特定声音,导致一致或不一致的对。展示了四种不同长度的火车:1、2、4 或 7。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。在一次呈现一致的视觉-提示-声音组合之后已经观察到 IR,并且随着试验列车长度的增加,幅度没有变化。我们得出的结论是,以自上而下的方式应用的更高级别的关联参与了由 IR 反射的预测误差信号的引发,与局部意外事件无关。
更新日期:2021-03-15
down
wechat
bug