当前位置: X-MOL 学术Soc. Cogn. Affect. Neurosci. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Statistical pattern recognition reveals shared neural signatures for displaying and recognizing specific facial expressions
Social Cognitive and Affective Neuroscience ( IF 3.9 ) Pub Date :  , DOI: 10.1093/scan/nsaa110
Sofia Volynets 1 , Dmitry Smirnov 1 , Heini Saarimäki 1, 2 , Lauri Nummenmaa 3, 4
Affiliation  

Abstract
Human neuroimaging and behavioural studies suggest that somatomotor ‘mirroring’ of seen facial expressions may support their recognition. Here we show that viewing specific facial expressions triggers the representation corresponding to that expression in the observer’s brain. Twelve healthy female volunteers underwent two separate fMRI sessions: one where they observed and another where they displayed three types of facial expressions (joy, anger and disgust). Pattern classifier based on Bayesian logistic regression was trained to classify facial expressions (i) within modality (trained and tested with data recorded while observing or displaying expressions) and (ii) between modalities (trained with data recorded while displaying expressions and tested with data recorded while observing the expressions). Cross-modal classification was performed in two ways: with and without functional realignment of the data across observing/displaying conditions. All expressions could be accurately classified within and also across modalities. Brain regions contributing most to cross-modal classification accuracy included primary motor and somatosensory cortices. Functional realignment led to only minor increases in cross-modal classification accuracy for most of the examined ROIs. Substantial improvement was observed in the occipito-ventral components of the core system for facial expression recognition. Altogether these results support the embodied emotion recognition model and show that expression-specific somatomotor neural signatures could support facial expression recognition.


中文翻译:

统计模式识别揭示共享的神经签名,用于显示和识别特定的面部表情

摘要
人类的神经影像和行为研究表明,所见面部表情的体动“镜像”可能支持它们的识别。在这里,我们显示了查看特定的面部表情会触发与观察者大脑中的表情相对应的表示。十二名健康的女性志愿者分别接受了两次功能磁共振成像检查:一次观察,另一次显示三种面部表情(欢乐,愤怒和厌恶)。对基于贝叶斯逻辑回归的模式分类器进行了训练,以对面部表情进行分类(i)在模态中(通过观察或显示表情时记录的数据进行训练和测试),以及(ii)在模态之间(在显示表情时记录的数据进行训练并通过记录的数据进行测试)同时观察表情)。跨模式分类以两种方式执行:在观察/显示条件下对数据进行功能调整和不进行功能调整。可以在模态内或模态之间对所有表达式进行准确分类。对跨模态分类准确性影响最大的大脑区域包括初级运动和体感皮层。对于大多数已检查的ROI,功能重排仅导致交叉模式分类准确性的微小提高。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。在观察/显示条件下对数据进行功能调整或不进行功能调整。可以在模态内或模态之间对所有表达式进行准确分类。对跨模态分类准确性影响最大的大脑区域包括初级运动和体感皮层。对于大多数已检查的ROI,功能重排仅导致交叉模式分类准确性的微小提高。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。在观察/显示条件下对数据进行功能调整或不进行功能调整。可以在模态内或模态之间对所有表达式进行准确分类。对跨模态分类准确性影响最大的大脑区域包括初级运动和体感皮层。对于大多数已检查的ROI,功能重排仅导致交叉模式分类准确性的微小提高。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。对跨模态分类准确性影响最大的大脑区域包括初级运动和体感皮层。对于大多数已检查的ROI,功能重排仅导致交叉模式分类准确性的微小提高。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。对跨模态分类准确性影响最大的大脑区域包括初级运动和体感皮层。对于大多数已检查的ROI,功能重排仅导致交叉模式分类准确性的微小提高。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。面部表情识别核心系统的枕腹组件得到了显着改善。这些结果总体上支持了具体化的情绪识别模型,并表明特定于表情的躯体运动神经签名可以支持面部表情识别。
更新日期:2020-10-08
down
wechat
bug