摘要: 目的:在现实生活中人们经常需要对群体面孔进行加工,许多研究证明个体可以从包含多个面孔的集合中快速提取出平均情绪。然而,个体是否可以自动化加工面孔集合中情绪的变异性信息,这种对多面孔情绪变异性信息加工的能力是否受情绪类型的影响,目前尚有许多未知的问题。因此,本研究利用脑电技术和反向oddball范式,操纵面孔集合的情绪变异性,探究多面孔情绪变异性自动化加工的认知神经机制。
方法:从清华大学情绪面孔材料库中选取男性和女性面孔各两张,所有面孔图片仅保留面部。并对同一身份从愤怒到高兴表情进行变形,得到1(非常愤怒)到99(非常高兴)的99张变形面孔,相邻变形面孔相差一个情绪单元。每个面孔集合由四张相同效价的面孔组成,分为高情绪变异性面孔集合(标准差为20.39)和低情绪变异性面孔集合(标准差为7),二者互为标准刺激(80%)和偏差刺激(20%)。实验有高兴和愤怒两种条件,每种条件下的面孔平均情绪唤醒度均为中等,平均情绪强度相同。在实验过程中,集合中的面孔位于外周视野,呈现300毫秒,接着是400到700毫秒的ISI,屏幕中央一直呈现注视点,被试需要判断中央注视点是否发生变化。
结果:在知觉早期阶段(80ms-120ms),高情绪变异性面孔集合在颞叶和枕叶皮层诱发出vMMN,且一直延续到晚期阶段。低情绪变异性面孔集合在颞叶和枕叶皮层诱发的vMMN仅出现在中期(200ms-350ms)和晚期(400ms-600ms)的时间窗。愤怒和高兴条件下的vMMN振幅没有显著差异。这些结果提示个体自动化加工面孔低情绪变异性信息和高情绪变异性信息可能存在不同的机制。
结论:个体能自动化加工多面孔情绪的变异性信息,且不受情绪类型的影响。