?

群體信息對面部表情識別的影響*

2024-03-04 11:30王偉晗曹斐臻余林偉楊鑫超
心理學報 2024年3期
關鍵詞:面孔恐懼一致性

王偉晗 曹斐臻,2 余林偉 曾 珂 楊鑫超 徐 強

群體信息對面部表情識別的影響*

王偉晗1曹斐臻1,2余林偉1曾 珂3楊鑫超1徐 強1

(1寧波大學心理學系暨研究所, 浙江 寧波 315211) (2華南師范大學心理學院, 廣州 510631) (3中山大學心理學系, 廣州 510006)

本研究通過3個實驗探討群體信息對面部表情識別的影響。結果發現:(1)周圍面孔的情緒狀態影響個體對目標面孔情緒的識別, 兩者情緒一致時的反應時顯著短于不一致時的反應時, 且面部表情識別準確性更高。(2)群體信息會調節周圍面孔情緒對目標面孔的影響, 進而影響面部表情識別。具體而言, 群體條件下, 個體對目標面部表情的識別受到周圍面孔情緒狀態的影響, 相比周圍面孔情緒與目標面孔情緒不一致, 兩者情緒一致時, 即符合個體基于知覺線索建立的群體成員情緒具有一致性的預期, 面部表情識別的準確性更高、速度更快; 而非群體條件下, 個體則不受周圍面孔情緒狀態的影響。研究結果表明, 個體能夠基于互動人物之間的社會關系識別面孔情緒, 群體存在時, 會建立群體成員情緒具有一致性的預期, 進而影響面部表情識別。

面部表情, 群體信息, 情緒識別, 情緒一致性, 預期

1 前言

情緒產生于個體與他人的互動中, 面部表情的準確識別對社會交互過程影響重大(Keltner & Haidt, 1999; van Kleef, 2009)。以往研究大多基于情緒類別理論(Ekman, 1993), 孤立呈現面部表情, 以探討個體對面部表情的加工過程(Adolphs, 2002; Susskind et al., 2007)。近年來研究發現, 個體對面部表情的識別不僅依賴面孔構型信息, 場景、身體姿勢、語言文字、面孔等情境信息也是面部表情識別的重要線索(Aviezer et al., 2008; Gray et al., 2017; Lindquist & Gendron, 2013; Mumenthaler & Sander, 2012; Wieser & Brosch, 2012)?,F實生活中, 個體往往是在社會互動過程中完成對他人面部表情的識別, 群體信息作為社會互動的情境, 是否以及如何影響面部表情識別尚不清晰。因此, 本研究擬探討群體信息對面部表情識別的影響。

大量研究表明, 個體對面部表情的識別并不是孤立的, 來自面孔外部的情境信息同樣在面部表情識別中發揮著重要作用(Cao et al., 2023; Gray et al., 2017; Lindquist & Gendron, 2013; Mumenthaler & Sander, 2012; Wieser & Brosch, 2012), 即面部表情識別的情境效應(context effects), 具體表現為情境與面孔情緒一致時的促進作用及不一致時的阻礙作用(Aviezer et al., 2008; 李婉悅等, 2020; 徐強等, 2014)?,F實互動過程中, 面孔往往伴隨著群體情境出現。以往有研究探討了群體面孔的情緒信息對群體中目標面孔情緒加工的影響(Griffiths et al., 2018), 結果發現, 個體在編碼目標面孔情緒的同時, 也會對群體情緒進行編碼, 進而影響個體對目標面孔情緒強度的記憶, 即偏向群體平均情緒強度。例如, 當個體觀察到一個略微生氣的人和一群更生氣的人處在一起時, 其對目標人物情緒狀態的記憶將比實際狀況更生氣, 且這一效應也存在于面孔吸引力評價中(Carragher et al., 2021; Walker & Vul, 2013; Ying et al., 2019)。上述研究表明, 群體面孔的整體表征能夠影響個體對群體中目標面孔的信息編碼, 反映了個體對群體面孔的整合加工。然而并未有研究從不同群體屬性的角度出發, 探討群體信息對面部表情識別的具體影響。

群體作為一個動態的社會結構, 由群體成員(個體)組成(Vuk?i?-Mihaljevi? & Mandi?, 2001), 個體的行為往往是其與社會情境中其他個體共同交互的結果。研究發現, 觀察者不僅可以依據刻板印象形成群體信息(Yzerbyt & Demoulin, 2010), 也能基于社會個體的空間接近性、相似性、共同命運等形成知覺整體的線索(Campbell, 1958), 產生群體存在性與邊界的認識, 進而感知群體信息(Morewedge et al., 2013; Sweeny et al., 2013; 徐浩等, 2019), 且這種對群體信息的知覺能力在個體早期生命階段就已存在(Powell & Spelke, 2013), 表明人類具備通過知覺線索提取群體信息的能力。有研究發現, 基于知覺線索形成的群體信息在個體的認知加工中起著重要作用。Dang等人(2018)通過操縱群體成員的空間臨近性和相似性提供群體信息, 發現被試認為屬于同一群體的成員更溫暖且有能力。徐浩等人(2019)也發現, 基于知覺線索形成的群體認識, 促使個體建立了群體成員行為具有一致性的預期。以上證據表明, 基于知覺線索形成的群體信息會影響個體的認知加工過程?;诖? 面部表情識別作為個體認知加工中極其重要的一方面, 本研究預期群體信息會對個體識別面部表情產生影響。

此外, 本研究進一步探討的問題是, 群體信息以何種方式影響面部表情的識別?以往研究發現, 當個體與群體內成員互動時, 能夠根據群體內其他成員的已知屬性推測該成員的未知屬性, 認為該成員也具有這一屬性(徐浩等, 2019)。此外, 當觀察者預測群體中的個體行為時, 往往對其作出與群體內其他成員一致的推斷(Todd et al., 2012)。那么在面部表情識別中, 群體內其他面孔的情緒狀態是否也會影響個體識別目標面孔情緒?即群體存在時, 個體也會根據周圍其他成員的情緒狀態推測目標面孔的情緒, 反之則不會。有研究為該問題提供了支撐。Mumenthaler和Sander (2012)的研究發現, 當周圍面孔的注視方向指向目標面孔時, 表示其對目標面孔的社會評價, 不僅增強了情緒一致性效應, 且當周圍面孔情緒與目標面孔情緒存在功能關聯時, 識別目標面孔的準確性提升。該研究表明個體會利用兩者之間的聯系來判斷目標面孔的情緒。之后, Mumenthaler等人(2018)通過改變周圍人物的頭部轉向來操縱其與目標人物之間的聯系, 發現只有當周圍人物轉向目標人物且兩者情緒一致時, 觀察者才會對目標人物的情緒做出更快的判斷。Gray等人(2017)也通過頭部轉向操縱目標人物與周圍人物的互動, 得到了類似的結果。研究者認為, 這是因為個體利用周圍人物的情緒狀態推理目標面孔情緒, 且這種推理只發生在二者存在一定的社會互動關系時。同樣, 當個體知覺到周圍面孔與目標面孔屬于同一群體時, 群體中其他成員的情緒狀態可能會影響其對目標面孔情緒的判斷。因此, 本研究預期, 群體信息能夠調節周圍面孔情緒對目標面孔的影響, 進而影響面部表情識別。

綜上所述, 本研究假設:群體信息會調節周圍面孔情緒狀態對目標面孔的影響, 進而影響面部表情識別。具體而言, 群體條件下, 周圍面孔的情緒狀態會影響個體對目標面孔情緒的判斷, 產生情緒識別的情境效應, 即相比兩者情緒不一致時, 情緒一致時的表情識別準確性更高、反應速度更快; 而非群體條件下, 周圍面孔的情緒狀態則不會影響個體對目標面孔情緒的判斷。

2 實驗1:多項選擇任務中群體信息對面部表情識別的影響

2.1 方法

2.1.1 被試

使用G*power 3.1計算研究所需樣本量(Faul et al., 2007), 設置參數為:被試內重復測量方差分析, 效應量= 0.25, 統計檢驗力1 ? β = 0.9, ɑ = 0.05, 測量次數 = 6, 計算得到樣本量為24人, 實際招募29名大學生被試(女性16名, 平均年齡為20 ± 1.8歲)參加實驗。所有被試母語均為漢語, 視力或矯正視力正常, 無色弱色盲, 均為右利手, 無精神病史。實驗前, 所有被試均閱讀和簽署了實驗知情同意書, 完成實驗后可獲得一定的報酬。

2.1.2 實驗刺激與設備

面部表情圖片選自Nimstim圖片系統(Tottenham et al., 2009), 其中快樂、恐懼、中性面部表情圖片各15張(8男7女)。圖片統一采用 PhotoShop CS6軟件進行黑白處理, 匹配圖片大小、明暗度和對比度。所有面孔材料去除其頭發、耳朵等, 僅保留面孔內特征(如眼鼻口、臉頰等)。31名未參與正式實驗的被試對面部表情圖片的效價(1 = 非常消極, 9 = 非常積極)和喚醒度(1 = 非常平靜, 9 = 非常激動)進行1~9點評分。結果表明, 快樂、恐懼面孔圖片的效價差異顯著(快樂= 6.71,= 0.88; 恐懼= 3.80,= 1.48;(29) = 8.05,< 0.001), 喚醒度差異不顯著(快樂= 6.22,= 1.29; 恐懼= 5.89,= 1.51;(29) =1.77,= 0.09), 符合實驗要求。

通過Photoshop制作不同顏色的三角形作為人物身體, 具體為紅色(RGB: 255, 0, 0)、綠色(RGB: 0, 255, 0)、藍色(RGB: 0, 0, 255)。實驗程序中, 所有身體與面孔自行拼接。實驗刺激呈現在24英寸LED顯示器(BenQ XL2430-b)上, 垂直刷新頻率為60 Hz,被試與屏幕距離約70 cm。

2.1.3 實驗設計

采用2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制)的被試內實驗設計。因變量是由滑塊評分計算得到的一致性指數(Congruence index)和辨別指數(Discrimination index)。一致性指數和辨別指數的計算參考了Cristinzio等人(2010)以及Mumenthaler和Sander (2012)的研究。具體而言, 一致性指數通過計算“正確”面部表情的評分得出, 以快樂面部表情的某一個試次為例, 僅計算被試在情緒量表的“快樂”維度的評分; 辨別指數通過計算“正確”面部表情的評分減去其他“不正確”面部表情評分的平均值得出, 以快樂面部表情的某一個試次為例, 首先計算被試在情緒量表的“快樂”維度的評分, 再計算其他五個維度(憤怒、驚訝、恐懼、悲傷、厭惡)評分的平均值, 快樂維度的評分減去其他五個維度評分的平均值, 即為該試次中被試的辨別指數。一致性指數和辨別指數能夠更好地描述不同實驗設置下, 被試判斷目標面孔情緒的準確性, 即一致性指數和辨別指數越高, 個體對目標面部表情的識別越準確。

2.1.4 實驗程序

實驗包括以下6種條件:群體條件+快樂面孔、群體條件+恐懼面孔、非群體條件+快樂面孔、非群體條件+恐懼面孔、控制條件+快樂面孔、控制條件+恐懼面孔, 每種條件45個試次, 總共270個試次隨機呈現, 每30個試次休息1次。

采用Psychopy軟件呈現實驗刺激并記錄行為數據。具體刺激的呈現順序為:首先呈現注視點“+” (1100~1300 ms隨機, 視角為1.5°), 之后群體與非群體條件下呈現三個性別隨機的人物, 面部表情均為中性(面孔視角為5.1° × 4.1°), 且按照一定實驗要求運動(3000 ms), 具體如下:(1)群體條件下, 三個身體顏色一致的人物圍繞中心進行有規律圓周運動; (2)非群體條件下, 三個身體顏色不一致的人物朝向屏幕邊緣隨機擴散??刂茥l件下, 只呈現注視點“+”。三個人物的初始位置分別位于一個以屏幕中心為重心、邊長為4.9°的等邊三角形的三個頂點上。運動結束后, 三個人物消失, 呈現注視點“+” (500 ms)。隨后, 群體、非群體條件下, 先前呈現的三個人物表現出相同的面部表情(快樂或恐懼), 再次呈現在屏幕中央(500 ms), 面孔間相隔5.3°; 控制條件只呈現中間人物。最后, 被試需在含有6種情緒的量表上評定中間人物的情緒(6種情緒分別為憤怒、快樂、驚訝、恐懼、悲傷、厭惡; 量表的水平維度表示連續的強度范圍, 最左邊表示“沒有”,最右邊表示“很多”; 被試單擊量尺某處后, 量尺上出現滑塊, 被試拖動滑塊確定相應情緒強度) (Cristinzio et al., 2010; Mumenthaler & Sander, 2012)。被試按空格鍵后結束對面部表情的評定, 進入下一試次(圖1)。6種情緒量表的順序在被試內固定, 被試間隨機呈現。

圖1 實驗1流程圖

2.1.5 群體有效性檢驗

實驗1通過三個人物的運動軌跡(群體條件下, 三個人物圍繞屏幕中心進行有規律的圓周運動; 非群體條件下, 三個人物朝向屏幕邊緣隨機擴散)以及身體顏色(群體條件下, 三個人物身體顏色均為紅色或綠色或藍色; 非群體條件下, 三個人物身體顏色為紅、綠、藍隨機匹配)操縱群體信息。為檢驗群體操縱的有效性, 參考以往研究(Yin et al., 2022; 徐浩等, 2019), 招募50名(每組各25名)未參加正式實驗的被試, 分別觀看“群體線索呈現階段” (女性12名, 平均年齡為23.08 ± 1.85歲)或“非群體線索呈現階段”的視頻(女性13名, 平均年齡為23.96 ± 1.46歲), 并通過7個項目評估視頻中三個人物屬于同一群體的程度, 即群體實體性(group entitativity; Campbell, 1958)。7個評定項目主要依據群體實體性的定義與特征確定(Campbell, 1958; Crawford et al., 2002), 具體如下:視頻中的三個人物:(1)具有共同的目標; (2)具有共同的需求; (3)彼此間相互依賴; (4)彼此間相互影響; (5)按照一定的規則行動; (6)具有密切的聯系; (7)相互接納。被試需對每個項目進行1~7 點評分(1 = 完全不同意, 7 = 完全同意), 分數越高, 表明被試認為三個人物的群體實體性程度越強。

結果發現:被試對7個項目評分的內部一致性系數分別為:α群體線索= 0.80, α非群體線索= 0.85。對兩種條件的群體實體性的評分均值進行獨立樣本檢驗, 結果發現:群體條件下的群體實體性的評分(= 5.07,= 0.77)顯著高于非群體條件(= 2.63,= 1.04),(48) = 9.43,< 0.001, Cohen’s= 0.91。相比非群體條件, 群體條件中, 被試認為三個人物屬于同一群體的程度更高, 表明群體線索操縱有效。

2.2 結果

數據的整理通過Python 3.8完成, 剔除超出各實驗條件平均數上下2.5個標準差的數據。采用SPSS 26.0軟件進行重復測量方差分析, 對不符合球形假設的值采用Greenhouse-Gessisser法校正, 多重比較時采用Bonferroni校正。

2.2.1 一致性指數結果

以一致性指數結果為因變量, 進行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制)的重復測量方差分析。結果發現(圖2):面部表情主效應顯著,(1, 28) = 71.98,< 0.001, ηp2= 0.72, 快樂表情(5.12 ± 0.35)的一致性指數得分顯著高于恐懼表情(2.30 ± 0.35)。群體線索主效應顯著,(2, 56) = 3.54,= 0.036, ηp2= 0.11, 事后多重比較發現, 群體條件下的一致性指數得分(3.85 ± 0.33)顯著高于非群體條件(3.58 ± 0.30;= 0.011), 控制條件(3.69 ± 0.31)與群體條件(3.85 ± 0.33;= 0.58)、非群體條件(3.58 ± 0.30;= 0.82)的差異均不顯著。面部表情和群體線索的交互作用不顯著(> 0.05)。

圖2 不同面部表情的一致性指數

注:誤差線表示標準誤

2.2.2 辨別指數結果

以辨別指數結果為因變量, 進行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制)的重復測量方差分析。結果發現:面部表情主效應顯著,(1, 28) = 120.54,< 0.001, ηp2= 0.81, 快樂表情的辨別指數得分(4.89 ± 0.36)顯著高于恐懼表情(0.81 ± 0.32)。面部表情與群體線索的交互作用顯著,(2, 56) = 3.39,0.041, ηp2= 0.11, 進一步簡單效應分析發現(圖3), 當個體識別恐懼目標面孔時,控制條件下的辨別指數得分(0.80 ± 0.30)顯著高于非群體條件(0.45 ± 0.30;= 0.031), 群體條件(0.75 ± 0.32)與非群體條件(0.45 ± 0.30)的辨別指數得分邊緣顯著(= 0.07), 但群體條件和控制條件之間不存在顯著差異(= 1.00);當個體識別快樂目標面孔時, 群體(5.00 ± 0.39)、非群體(4.80 ± 0.36)、控制(4.65 ± 0.39)條件之間均不存在顯著差異(s> 0.05)。

圖3 不同面部表情的辨別指數

注:誤差線表示標準誤, *< 0.05

2.3 討論

實驗1通過多項選擇任務, 發現群體信息會影響面部表情識別。具體而言, 在一致性指數指標上, 群體條件下個體識別目標面孔情緒的一致性指數顯著高于非群體條件; 在辨別指數指標上, 群體條件下個體識別恐懼目標面孔的辨別指數高于非群體條件??赡艿脑蚴牵菏紫? 相比積極情緒, 個體對恐懼表情的識別更易受到情緒性情境信息的影響(李婉悅等, 2019)。其次, 由于實驗1的面部表情識別階段, 群體與非群體條件下均呈現三個情緒一致的人物, 以往研究表明, 周圍面孔與目標面孔情緒一致時會促進面部表情識別(Mumenthaler & Sander, 2012)。先前通過知覺線索呈現的群體信息, 可能會影響個體對周圍人物情緒狀態的參考, 進而影響面部表情識別。

但由于實驗1的面部表情識別階段, 群體、非群體、控制條件的人物數量、身體顏色存在一定差異。因此, 實驗2在面部表情識別階段, 一方面, 進一步控制三種條件中物理屬性的差異, 即三種條件的面部表情識別階段均設置為三個身體顏色隨機匹配的人物; 另一方面, 操縱周圍面孔與目標面孔之間的情緒一致性, 以探討群體信息與情緒一致性對面部表情識別的影響。

3 實驗2:多項選擇任務中, 群體信息與情緒一致性對面部表情識別的影響

3.1 方法

3.1.1 被試

使用G*power 3.1計算研究所需樣本量(Faul et al., 2007), 設置參數為:被試內重復測量方差分析, 效應量= 0.25, 統計檢驗力1 ? β = 0.9, ɑ = 0.05, 測量次數 = 12, 計算得到樣本量為16人, 實際招募26名大學生被試(女性14名, 平均年齡為21.15 ± 1.99歲)參加實驗。所有被試母語均為漢語, 視力或矯正視力正常, 無色弱色盲, 均為右利手, 無精神病史。實驗前, 所有被試均閱讀和簽署了實驗知情同意書, 完成實驗后可獲得一定的報酬。

3.1.2 實驗刺激與設備

實驗材料與設備同實驗1。

3.1.3 實驗設計

采用2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (目標面孔與周圍面孔的情緒一致性:一致、不一致)的被試內實驗設計。因變量為一致性指數和辨別指數。

3.1.4 實驗程序

實驗包括以下12種條件:群體條件+快樂目標面孔+情緒一致、群體條件+快樂目標面孔+情緒不一致、群體條件+恐懼目標面孔+情緒一致、群體條件+恐懼目標面孔+情緒不一致、非群體條件+快樂面孔+情緒一致、非群體條件+快樂面孔+情緒不一致、非群體條件+恐懼面孔+情緒一致、非群體條件+恐懼面孔+情緒不一致、控制條件+快樂面孔+情緒一致、控制條件+快樂面孔+情緒不一致、控制條件+恐懼面孔+情緒一致、控制條件+恐懼面孔+情緒不一致, 每種條件30個試次, 總共360個試次隨機呈現, 每60個試次休息1次。實驗總時長約1小時。

采用Psychopy軟件呈現實驗刺激并記錄行為數據。具體刺激的呈現順序為:首先呈現注視點“+” (1100~1300 ms隨機, 視角為1.5°), 之后群體與非群體條件下呈現三個面部表情為中性的人物圖片(5.1° × 4.1°), 三個人物性別隨機, 身體顏色均設置為紅色、綠色、藍色隨機匹配。群體條件下, 三個人物圍繞中心進行有規律圓周運動(3000 ms); 非群體條件下, 三個人物朝向屏幕邊緣隨機擴散(3000 ms); 控制條件下, 只呈現注視點“+” (3000 ms)。三個人物的初始位置分別位于一個以屏幕中心為重心、邊長為4.9°的等邊三角形的三個頂點上。運動結束后, 三個人物消失, 呈現注視點“+” (500 ms)。

隨后, 在面部表情識別階段, 與實驗1的不同主要體現在:(1)群體、非群體、控制條件下, 均呈現三個人物圖片(人物圖片之間相隔5.3°, 500 ms), 且三個人物圖片的身體顏色均隨機匹配(群體、非群體條件的人物圖片與群體信息呈現階段一致), 從而減少物理線索帶來的知覺整體性對實驗的干擾; (2)操縱了周圍人物與中間人物的情緒一致性, 具體表現為:情緒一致條件下, 三個人物圖片的面部表情均為快樂或恐懼; 情緒不一致條件下, 中間人物情緒為快樂時, 周圍人物情緒為恐懼; 中間人物情緒為恐懼時, 周圍人物情緒為快樂。最后, 被試需在含有6種情緒的量表上評定中間人物的情緒(6種情緒分別為憤怒、快樂、驚訝、恐懼、悲傷、厭惡; 量表的水平維度表示連續的強度范圍, 最左邊表示“沒有”, 最右邊表示“很多”; 被試單擊量尺某處后, 量尺上出現滑塊, 被試拖動滑塊確定相應情緒強度) (Cristinzio et al., 2010; Mumenthaler & Sander, 2012)。被試按空格鍵后結束對面部表情的評定, 進入下一試次(圖4)。6種情緒量表的順序在被試內固定, 被試間隨機呈現。

圖4 實驗2流程圖

3.1.5 群體有效性檢驗

實驗2通過三個人物的運動軌跡(群體條件下, 三個人物圍繞屏幕中心進行有規律的圓周運動; 非群體條件下, 三個人物朝向屏幕邊緣隨機擴散)操縱群體信息。招募50名(每組各25名)未參加正式實驗的被試, 分別觀看“群體線索呈現階段” (女性11名, 平均年齡為24.12 ± 1.96歲)或“非群體線索呈現階段”的視頻(女性13名, 平均年齡為23.96 ± 1.46歲), 并通過7個項目評估視頻中三個人物屬于同一群體的程度(同實驗1)。

結果發現:被試對7個項目評分的內部一致性系數分別為:α群體線索= 0.83, α非群體線索= 0.85, 對兩種條件的群體實體性的評分均值進行獨立樣本檢驗, 結果發現:群體條件下的群體實體性的評分(= 4.94,= 1.03)顯著高于非群體條件(= 2.63,= 1.04),(48) = 7.86,< 0.001, Cohen’s= 1.04。相比非群體條件, 群體條件中, 被試認為三個人物屬于同一群體的程度更高, 表明實驗操縱有效。

3.2 結果

數據的整理通過Python 3.8完成, 剔除超出各實驗條件平均數上下2.5個標準差的數據。采用SPSS 27.0軟件進行重復測量方差分析, 對不符合球形假設的值采用Greenhouse-Gessisser法校正, 多重比較時采用Bonferroni校正。

3.2.1 一致性指數結果

以一致性指數結果為因變量, 進行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (情緒一致性:一致、不一致)的重復測量方差分析。結果發現:面部表情主效應顯著,(1, 25) = 23.57,< 0.001, ηp2= 0.48。群體線索主效應顯著,(2, 50) =12.72,< 0.001, η2p= 0.34。情緒一致性主效應顯著,(1, 25) = 21.81,< 0.001, ηp2= 0.47。

群體線索和情緒一致性的交互作用顯著,(2, 50) = 4.23,= 0.020, ηp2= 0.15。進一步簡單效應檢驗發現(圖5), 群體條件下, 情緒一致條件的一致性指數得分(4.55 ± 0.28)顯著高于情緒不一致條件(4.23 ± 0.25;< 0.001); 非群體條件下, 情緒一致(4.20 ± 0.27)與情緒不一致條件(4.09 ± 0.26)的一致性指數得分無顯著差異(> 0.05); 控制條件下, 情緒一致(4.18 ± 0.28)與情緒不一致條件(4.11 ± 0.26)的一致性指數得分無顯著差異(> 0.05)。此外, 當目標面孔與周圍面孔情緒一致時, 群體條件下的一致性指數(4.55 ± 0.28)顯著高于非群體條件(4.20 ± 0.27,= 0.001)和控制條件(4.18 ± 0.28,< 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05); 當目標面孔與周圍面孔情緒不一致時, 群體條件(4.23 ± 0.25)、非群體條件(4.09 ± 0.26)、控制條件(4.11 ± 0.26)下的一致性指數均無顯著差異(s > 0.05)。

圖5 不同群體線索下, 面部表情識別的一致性指數

注:誤差線表示標準誤, ***< 0.001

群體線索和面部表情的交互作用顯著,(2, 50) = 4.30,= 0.030, ηp2= 0.15。對于恐懼表情, 群體條件下的一致性指數得分(3.73 ± 0.27)顯著高于非群體條件(3.27 ± 0.28;< 0.001)和控制條件(3.38 ± 0.26;< 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05)。對于快樂表情, 群體條件(5.05 ± 0.35)、非群體條件(5.02 ± 0.32)、控制條件(4.91 ± 0.37)下的一致性指數均無顯著差異(s > 0.05)。無其他顯著交互作用(s > 0.05)。

3.2.2 辨別指數結果

以辨別指數結果為因變量, 進行2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (情緒一致性:一致、不一致)的重復測量方差分析。結果發現:面部表情主效應顯著,(1, 25) = 66.48,< 0.001, ηp2= 0.73。群體線索主效應顯著,(2, 50) = 13.15,< 0.001, ηp2= 0.35。情緒一致性主效應顯著,(1, 25) = 22.30,< 0.001, ηp2= 0.47。

群體線索和情緒一致性的交互作用顯著,(2, 50) = 3.79,= 0.029, ηp2= 0.13。進一步簡單效應檢驗發現(圖6),群體條件下, 情緒一致條件的辨別指數得分(3.77 ± 0.26)顯著高于情緒不一致條件(3.39 ± 0.24;< 0.001); 非群體條件下, 情緒一致(3.32 ± 0.25)與情緒不一致條件(3.21 ± 0.24)的辨別指數得分無顯著差異(> 0.05); 控制條件下, 情緒一致(3.34 ± 0.27)與情緒不一致條件(3.23 ± 0.26)的辨別指數得分無顯著差異(> 0.05)。此外, 當目標面孔與周圍面孔情緒一致時, 群體條件下的辨別指數(3.77 ± 0.26)顯著高于非群體條件(3.32 ± 0.25,= 0.001)和控制條件(3.34 ± 0.27,= 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05); 當目標面孔與周圍面孔情緒不一致時, 群體條件(3.39 ± 0.24)、非群體條件(3.21 ± 0.24)、控制條件(3.23 ± 0.26)下的辨別指數均無顯著差異(s > 0.05)。

圖6 不同群體線索下, 面部表情識別的辨別指數

注:誤差線表示標準誤, ***< 0.001

群體線索和面部表情的交互作用顯著,(2, 50) = 5.75,= 0.011, ηp2= 0.19。對于恐懼表情, 群體條件下的辨別指數得分(2.35 ± 0.24)顯著高于非群體條件(1.78 ± 0.25;< 0.001)和控制條件(1.93 ± 0.24;< 0.001), 非群體條件與控制條件之間不存在顯著差異(> 0.05)。對于快樂表情, 群體條件(4.80 ± 0.35)、非群體條件(4.75 ± 0.34)、控制條件(4.63 ± 0.38)下的辨別指數均無顯著差異(s> 0.05)。無其他顯著交互作用(s > 0.05)。

3.3 討論

實驗2在進一步控制不同條件物理屬性差異的基礎上, 在面部表情識別階段操縱了周圍面孔與目標面孔的情緒一致性, 通過多項選擇任務探討群體信息與情緒一致性對面部表情識別的影響。實驗2同樣發現, 相比快樂表情, 恐懼表情識別更易受群體信息的影響, 即群體條件下, 個體識別恐懼表情的一致性指數和辨別指數均顯著高于非群體條件和控制條件。重要的是, 實驗2進一步發現, 周圍面孔與目標面孔之間的情緒一致性會影響個體對目標面孔情緒的識別, 產生情緒識別的情境效應, 即一致時的面部表情識別準確性顯著高于不一致時。而群體信息則對這種效應產生了調節作用, 具體表現為:在群體條件下, 當周圍面孔與目標面孔情緒一致時, 被試識別目標面孔情緒的準確性顯著高于情緒不一致時; 在非群體條件下, 則不存在顯著差異。

此外, 在面部表情加工中, 不同實驗任務誘發的認知過程存在一定的差異, 相比自由標記任務, 迫選任務下被試有更高的準確率和更快的反應速度(Betz et al., 2019)。因此, 實驗3采用二擇一的迫選任務, 探討群體信息與情緒一致性對面部表情識別的影響。

4 實驗3:迫選任務中, 群體信息與情緒一致性對面部表情識別的影響

4.1 方法

4.1.1 被試

使用G*power 3.1計算研究所需樣本量(Faul et al., 2007), 設置參數為:被試內重復測量方差分析, 效應量= 0.25, 統計檢驗力1 ? β = 0.9, ɑ = 0.05, 測量次數 = 12, 計算得到樣本量為16人, 實際招募32名大學生被試(女性15名, 平均年齡為21.2 ± 1.6歲)參加實驗。所有被試母語均為漢語, 視力或矯正視力正常, 無色弱色盲, 均為右利手, 無精神病史。實驗前, 所有被試均閱讀和簽署了實驗知情同意書, 完成實驗后可獲得一定的報酬。

4.1.2 實驗刺激與設備

實驗材料與設備同實驗1。

4.1.3 實驗設計

采用2 (面部表情:快樂、恐懼) × 3 (群體線索:群體、非群體、控制) × 2 (目標面孔與周圍面孔的情緒一致性:一致、不一致)的被試內實驗設計。因變量為反應時和正確率。

4.1.4 實驗程序

實驗條件共12種, 與實驗2一致, 每種條件45個試次, 總共540個試次隨機呈現, 每60個試次休息1次。實驗總時長約0.8小時。

實驗過程中, 與實驗2不同的是, 在面部表情識別階段, 被試需在人物圖片呈現后, 對中間人物的面部表情做出按鍵反應, 快樂按“Q”鍵, 恐懼按“P”鍵, 按鍵方式在被試之間進行平衡。人物圖片在按鍵后消失, 若被試在1500 ms內未進行按鍵反應, 記為錯誤反應, 人物圖片消失。隨機間隔1200~1500 ms之后進入下一試次(圖7, 其余流程均與實驗2保持一致)。

4.1.5 群體有效性檢驗

同實驗2。

4.2 結果

數據的整理通過Python 3.8完成, 剔除超出各實驗條件平均數上下2.5個標準差的數據。采用SPSS 26.0軟件進行重復測量方差分析, 對不符合球形假設的值采用Greenhouse-Gessisser法校正, 多重比較時采用Bonferroni校正。

4.2.1 反應時結果

以反應時結果為因變量, 進行2 (情緒一致性:一致、不一致) × 3 (群體線索:群體、非群體、控制) × 2 (面部表情:快樂、恐懼)的重復測量方差分析。結果發現:面部表情主效應顯著,(1, 31) = 19.63,< 0.001, ηp2= 0.39, 快樂表情(= 704.95 ms,= 12.55)的反應時顯著短于恐懼表情(= 727.42 ms,= 12.57)。群體線索主效應顯著,(2, 62) = 140.24,< 0.001, ηp2= 0.82, 情緒一致性主效應顯著,(1, 31) = 25.74,< 0.001, ηp2= 0.45。

重要的是, 群體線索與情緒一致性的交互作用顯著,(2, 62) = 8.07,< 0.001, ηp2= 0.21, 進一步簡單效應檢驗發現(圖8), 在控制條件和群體條件下, 情緒一致條件的反應時(控制:= 758.78 ms,= 11.71; 群體:= 678.55 ms,= 12.64)顯著短于情緒不一致條件(控制:= 782.12 ms,= 13.35,0.001; 群體:= 688.15 ms,= 13.38,0.008)。而在非群體條件下, 情緒一致(= 693.92 ms,= 13.01)與不一致條件(= 695.59 ms,= 13.10)的反應時無顯著差異(0.70)。此外, 當目標面孔與周圍面孔情緒一致時, 群體條件下的反應時(= 678.55 ms,= 12.64)顯著短于非群體條件(= 693.92 ms,= 13.01,= 0.004)和控制條件(= 758.78 ms,= 11.71,< 0.001), 非群體條件下的反應時(= 693.92 ms,= 13.01)顯著短于控制條件(= 758.78 ms,= 11.71,< 0.001); 當目標面孔與周圍面孔情緒不一致時, 群體條件下的反應時(= 688.15 ms,= 13.38)顯著短于控制條件(= 782.12 ms,= 13.35,< 0.001), 非群體條件下的反應時(= 695.59 ms,= 13.10)顯著短于控制條件(= 782.12 ms,= 13.35,< 0.001), 群體條件與非群體條件下的反應時無顯著差異(= 0.27)。無其他顯著交互作用(s> 0.05)。

圖7 實驗3流程圖

圖8 不同群體線索下, 面部表情識別的反應時

注:誤差線表示標準誤, **< 0.01, ***< 0.001

4.2.2 正確率結果

以正確率為因變量, 進行2 (一致性:一致, 不一致) × 3 (群體條件:群體, 非群體, 控制) × 2 (面部表情:快樂表情, 恐懼表情)的重復測量方差分析。群體條件主效應邊緣顯著,(2, 62) = 3.20,= 0.049, ηp2= 0.18。但進一步分析發現不存在任何顯著效應(s> 0.05)。無其他顯著主效應或交互作用(s > 0.05)。

4.3 討論

實驗3采用二擇一的迫選任務, 進一步探討群體信息與情緒一致性對面部表情識別的影響。與實驗2類似, 實驗3同樣發現, 群體信息對情緒一致性效應產生了調節作用, 具體表現為:在群體條件下, 當周圍面孔與目標面孔情緒一致時, 被試對目標面孔情緒的知覺速度快于情緒不一致時; 在非群體條件下, 上述效應消失。

5 總討論

本研究考察了群體信息對面部表情識別的影響及具體表現。研究發現, 周圍面孔的情緒狀態能夠影響目標面孔情緒的識別, 產生情緒一致性效應, 即周圍面孔與目標面孔情緒一致時的反應速度快于情緒不一致時, 且面部表情識別的準確性更高。重要的是, 群體信息能夠調節周圍面孔的情緒狀態對目標面孔的影響, 進而影響面部表情識別, 具體表現為:(1)群體條件下, 周圍面孔的情緒狀態會成為個體識別目標面孔情緒的參考。相比周圍面孔情緒與目標面孔情緒不一致, 兩者情緒一致時, 即符合個體基于知覺線索建立的群體成員情緒具有一致性的預期, 面部表情識別速度更快、準確性更高; (2)非群體條件下, 周圍面孔的情緒狀態不會影響個體對目標面孔情緒的判斷。此外, 本研究還發現了面部表情識別的積極情緒優勢效應, 具體表現為:相比恐懼表情, 個體對快樂情緒的識別速度更快, 準確性更高。

本研究發現, 控制條件不存在任何群體運動線索, 周圍面孔的情緒狀態依然會影響個體對目標面孔情緒的識別, 具體表現為:相比周圍面孔的情緒狀態與目標面孔情緒不一致時, 當兩者情緒一致時, 被試識別目標面孔情緒的反應時更短、準確性更高。這一結果體現了面部表情識別的情境效應(Gray et al., 2017; Lindquist & Gendron, 2013; Mumenthaler & Sander, 2012; Wieser & Brosch, 2012; 徐強等, 2014), 表明個體對面孔情緒的知覺并不僅僅由面孔構型特征驅動, 也會受到其所處情境的影響。

重要的是, 本研究發現, 群體信息會影響面部表情識別, 且這一影響是通過調節周圍面孔情緒對目標面孔的影響實現的。當個體知覺到目標面孔與周圍面孔屬于同一群體時, 周圍面孔的情緒狀態會成為個體識別目標面孔情緒的參考, 即相比周圍面孔與目標面孔情緒不一致, 當兩者情緒一致時, 個體識別目標面孔情緒的速度更快、準確性更高; 而當個體知覺到兩者不屬于同一群體時, 則不存在上述效應。這一結果得到以往相關研究的支持, Mumenthaler和Sander (2012)發現, 當周圍面孔的注視方向指向目標面孔時, 即社會評價條件下, 周圍面孔的情緒狀態影響了被試對目標面孔的情緒識別。在該實驗中, 周圍面孔對目標面孔的注視提供了互動信息, 即周圍面孔的情緒狀態表達了其對目標面孔的社會評價。與該研究相似, Gray等人(2017)的研究也發現, 互動關系影響觀察者對目標面孔的情緒識別。個體在互動關系中情緒的表達, 反映了其對互動對象的認知、態度等(Pietroni et al., 2008; van Kleef, 2009)。因此, 當周圍人物與目標人物存在社會互動時, 觀察者會將周圍人物的情緒狀態作為推斷目標面孔情緒的重要參考(Gray et al., 2017; Mumenthaler & Sander, 2012; Mumenthaler et al., 2018), 而群體成員之間又存在彼此互動和依賴。因此, 本研究中, 當觀察者通過群體線索知覺到目標人物和周圍人物屬于同一群體后, 會依據周圍面孔的情緒狀態對目標面孔的情緒進行判斷; 而當觀察者知覺到目標面孔與周圍面孔不屬于同一群體時, 則不會根據周圍面孔的情緒狀態對目標面孔情緒進行推斷。

此外, 上述結果也表明, 群體條件下, 個體基于知覺線索形成的群體信息, 會建立群體成員情緒具有一致性的預期。當周圍面孔與目標面孔情緒一致, 即符合個體預期時, 面部表情識別速度更快、準確性更高。Cao等人(2023)發現, 基于場景的預期能夠影響個體對面部表情的早期知覺加工, 當先前呈現的場景與面孔情緒一致時, 面孔誘發的N170波幅顯著大于不一致條件。這一結果表明:自下而上的面孔情緒與基于場景產生的自上而下的期望相一致時, 個體會對面孔投入更多的認知資源, 即期望強化效應(expectation sharpening effect, Kok et al., 2012; Lee & Mumford, 2003)。而當面孔情緒與先前預期不一致時, 個體則會對其產生相對抑制。此外, 研究表明, 當個體通過知覺線索意識到群體存在時, 會建立群體成員行為具有一致性的預期(徐浩等, 2019)。本研究的實驗2、實驗3中, 通過虛擬人物的運動軌跡操縱群體信息, 具體而言:群體條件下, 三個虛擬人物圍繞中心進行有規律圓周運動; 非群體條件下, 三個虛擬人物朝向屏幕邊緣隨機擴散。不同實驗條件下運動方式的不同構建了不同的群體線索, 使得個體對之后即將出現的目標面部表情產生不同的預期。那么, 在面部表情識別中, 當觀察者通過知覺線索意識到三個虛擬人物屬于同一群體后, 會建立其情緒具有一致性的預期, 當三個虛擬人物的面部表情一致時, 即與個體的預期相符, 面部表情識別的準確性顯著高于不一致時, 且速度更快。

本研究還發現, 相比恐懼表情, 個體識別快樂表情的速度更快、準確性更高, 這可能是與恐懼表情相比, 快樂表情具有晚期知覺加工優勢所致(Becker et al., 2011; Calvo & Nummenmaa, 2008; ?vegar & Kardum, 2013; 許茜如等, 2019)。研究發現, 面部表情加工和解碼需要個體對效價和特定情緒信息進行雙重加工(Aguado et al., 2013; Aguado et al., 2019; Dieguez-Risco et al., 2015), 對于效價信息的加工往往發生在較早的加工階段(Moors & de Houwer, 2001)。實驗1和實驗2中, 被試需在含有6種情緒的量表上評定中間人物的情緒(6種情緒分別為憤怒、快樂、驚訝、恐懼、悲傷、厭惡)。對于快樂情緒而言, 效價信息的加工就足以判斷面部表情的情緒; 對于恐懼情緒而言, 被試不僅需要對效價信息進行加工(是積極還是消極), 還需要進一步對其情緒類別信息進行加工(是憤怒、恐懼還是厭惡等), 因此, 被試對快樂面孔表現出知覺加工優勢。實驗3中, 被試僅需對面孔的情緒效價進行判斷。相比快樂表情, 恐懼表情本身就具有一定的模糊性(Mumenthaler & Sander, 2012), 當面孔構型信息難以準確傳達其情緒狀態時, 個體更傾向于依據情境信息判斷面孔情緒(Leleu et al., 2015; 李婉悅等, 2020)。這一現象在實驗1和實驗2中也有所體現, 即相比快樂表情, 恐懼表情識別更易受情境信息的影響。因此, 在實驗3中, 被試在判斷恐懼表情時, 周圍人物的情緒狀態更具參考意義。對于快樂目標面孔而言, 個體通過快樂目標面孔本身就足以判斷其情緒效價。而對于恐懼目標面孔而言, 其面孔自身信息的模糊性與不確定性, 促使個體更傾向于參考周圍人物的情緒狀態, 以確認自身的情緒判斷的準確性。因此, 個體判斷恐懼表情時, 表現出較長的反應時。

盡管如此, 本研究也存在一定的局限。首先, 本研究發現群體條件下, 個體對目標面部表情的識別受到周圍面孔情緒狀態的影響。但由于在實驗2和實驗3的操縱中, 并未設置單獨呈現目標面孔的基線條件, 因此無法明晰是周圍面孔與目標面孔情緒一致時的促進作用, 還是情緒不一致時的阻礙作用。未來研究應增設基線條件, 進一步探討群體存在時, 其他成員的情緒狀態對目標面部表情識別的具體影響。第二, 本研究中, 群體信息的呈現以及人物的外形與真實情況還存在一定的差異, 影響了本研究的生態效度。未來研究應采用更為生態的方式呈現群體信息。第三, 本研究通過知覺線索操縱群體信息, 但知覺線索本身的低級物理屬性帶來的影響難以完全排除。未來可以在現有實驗的基礎上, 增設物理屬性相同的對照實驗, 并干擾被試形成群體或非群體信息, 以進一步檢驗群體信息對面部表情識別的影響。

6 結論

本研究得到以下結論:(1)群體信息作為社會互動的重要情境, 會對面部表情識別產生重要影響, 即群體存在時, 周圍面孔的情緒狀態會成為個體識別目標面孔情緒的參考; 而非群體條件下, 周圍面孔的情緒狀態不會影響個體對目標面孔情緒的識別。(2)個體知覺到群體存在時, 會建立群體成員情緒具有一致性的預期, 當群體情緒與預期相一致時, 會促進其對目標面孔的情緒識別。(3)不同類別的面部表情加工存在差異, 相比恐懼面孔, 個體對快樂面孔的識別速度更快、準確性更高, 即出現快樂面孔的識別優勢效應。

Adolphs, R. (2002). Neural systems for recognizing emotion.,(2), 169?177. https:// doi.org/10.1016/S0959-4388(02)00301-X

Aguado, L., Dieguez-Risco, T., Méndez-Bértolo, C., Pozo, M. A., & Hinojosa, J. A. (2013). Priming effects on the N400 in the affective priming paradigm with facial expressions of emotion.,(2), 284?296. https://doi.org/10.3758/s13415-012-0137-3

Aguado, L., Dieguez-Risco, T., Villalba-García, C., & Hinojosa,J. A. (2019). Double-checking emotions: Valence and emotion category in contextual integration of facial expressions of emotion.,, 107723. https://doi. org/10.1016/j.biopsycho.2019.107723

Aviezer, H., Hassin, R. R., Bentin, S., & Trope, Y. (2008). Putting facial expressions back in context. In N. Ambady & J. Skowronski (Eds.),(pp. 255?288). New York, NY: Guilford Press.

Becker, D. V., Anderson, U. S., Mortensen, C. R., Neufeld, S. L., & Neel, R. (2011). The face in the crowd effect unconfounded: Happy faces, not angry faces, are more efficiently detected in single-and multiple-target visual searchtasks.,(4), 637?659. https://doi.org/10.1037/a0024060

Betz, N., Hoemann, K., & Barrett, L. F. (2019). Words are a context for mental inference.,(8), 1463?1477. https://doi.org/10.1037/emo0000510

Calvo, M. G., & Nummenmaa, L. (2008). Detection of emotionalfaces: Salient physical features guide effective visual search.,(3), 471? 494. https://doi.org/10.1037/a0012771

Campbell, D. T. (1958). Common fate, similarity, and other indices of the status of aggregates of persons as social entities.,(1), 14?25.

Cao, F., Zeng, K., Zheng, J., Yu, L., Liu, S., Zhang, L., & Xu, Q. (2023). Neural response and representation: Facial expressions in scenes.,(3), e14184. https://doi.org/10.1111/psyp.14184

Carragher, D. J., Thomas, N. A., & Nicholls, M. E. R. (2021). The dissociable influence of social context on judgements of facial attractiveness and trustworthiness.,(4), 902?933. https://doi.org/10.1111/ bjop.12501

Crawford, M. T., Sherman, S. J., & Hamilton, D. L. (2002). Perceived entitativity, stereotype formation, and the interchangeability of group members.,(5), 1076?1094. https://doi.org/ 10.1037//0022-3514.83.5.1076

Cristinzio, C., N’Diaye, K., Seeck, M., Vuilleumier, P., & Sander, D. (2010). Integration of gaze direction and facial expression in patients with unilateral amygdala damage.,(1), 248?261. https://doi.org/10.1093/brain/ awp255

Dang, J., Liu, L., Ren, D., & Su, Q. (2018). Polarization and positivity effects: Divergent roles of group entitativity in warmth and competence judgments.,, 74?84. https://doi.org/10.1016/j.jesp. 2017.09.003

Dieguez-Risco, T., Aguado, L., Albert, J., & Hinojosa, J. A. (2015). Judging emotional congruency: Explicit attention to situational context modulates processing of facial expressions of emotion.,, 27?38. https://doi. org/10.1016/j.biopsycho.2015.09.012

Ekman, P. (1993). Facial expression and emotion.,(4), 384?392. https://doi.org/10.1037/0003- 066X.48.4.384.

Faul, F., Erdfelder, E., Lang, A.-G., & Buchner, A. (2007). G* Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences.(2), 175?191. https://doi.org/10.3758/ bf03193146

Gray, K. L. H., Barber, L., Murphy, J., & Cook, R. (2017). Social interaction contexts bias the perceived expressions of interactants.,(4), 567?571. https://doi.org/10. 1037/emo0000257

Griffiths, S., Rhodes, G., Jeffery, L., Palermo, R., & Neumann, M. F. (2018). The average facial expression of a crowd influences impressions of individual expressions.,(2), 311?319. https://doi.org/10.1037/ xhp0000446

Keltner, D., & Haidt, J. (1999). Social functions of emotions at four levels of analysis.,(5), 505? 521. https://doi.org/10.1080/026999399379168

Kok, P., Jehee, J. F., & de Lange, F. P. (2012). Less is more: Expectation sharpens representations in the primary visual cortex.,(2), 265?270. https://doi.org/10.1016/j. neuron.2012.04.034

Lee, T. S., & Mumford, D. (2003). Hierarchical Bayesian inference in the visual cortex.,(7), 1434?1448. https://doi.org/10. 1364/JOSAA.20.001434

Leleu, A., Demily, C., Franck, N., Durand, K., Schaal, B., & Baudouin, J.-Y. (2015). The odor context facilitates the perception of low-intensity facial expressions of emotion.,(9), e0138656. https://doi.org/10.1371/journal. pone.0138656

Li, W., Han, S., Liu, S., Yang, Y., Zhang, L., & Xu, Q. (2020). Scene effects on facial expression detection: The moderating effects of trait anxiety.(8), 869?878. https://doi.org/10.3724/SP.J.1041.2019.00869

[李婉悅, 韓尚鋒, 劉燊, 楊亞平, 張林, 徐強. (2019). 場景對面孔情緒探測的影響:特質性焦慮的調節作用.(8), 869?878. https://doi.org/10.3724/SP.J.1041.2019. 00869]

Li, W., Tan, Q., Liu, S., Han, S., Zhang, L., & Xu, Q. (2020). The influence of language context on facial expression processing.,(2), 140?150.

[李婉悅, 譚群, 劉燊, 韓尚鋒, 張林, 徐強. (2020). 語境信息對面部表情加工的影響.,(2), 140?150.]

Lindquist, K. A., & Gendron, M. (2013). What’s in a word? Language constructs emotion perception.,(1), 66?71. https://doi.org/10.1177/1754073912451351

Moors, A., & de Houwer, J. (2001). Automatic appraisal of motivational valence: Motivational affective priming and Simon effects.,(6), 749?766. https:// doi.org/10.1080/02699930143000293

Morewedge, C. K., Chandler, J. J., Smith, R., Schwarz, N., & Schooler, J. (2013). Lost in the crowd: Entitative group membership reduces mind attribution.,(4), 1195?1205. https://doi.org/10.1016/j.concog.2013.08.002

Mumenthaler, C., & Sander, D. (2012). Social appraisal influences recognition of emotions.,(6), 1118?1135. https://doi.org/ 10.1037/a0026885

Mumenthaler, C., Sander, D., & Manstead, A. S. (2018). Emotion recognition in simulated social interactions.,(2), 308?312. https://doi.org/10.1109/TAFFC.2018.2799593

Pietroni, D., van Kleef, G. A., de Dreu, C. K. W., & Pagliaro, S.(2008). Emotions as strategic information: Effects of other’s emotional expressions on fixed-pie perception, demands, and integrative behavior in negotiation.,(6), 1444?1454. https://doi.org/10. 1016/j.jesp.2008.06.007

Powell, L. J., & Spelke, E. S. (2013). Preverbal infants expect members of social groups to act alike.,(41), E3965-E3972. https://doi.org/10.1073/pnas.1304326110

Susskind, J. M., Littlewort, G., Bartlett, M. S., Movellan, J., & Anderson, A. K. (2007). Human and computer recognition of facial expressions of emotion.,(1), 152?162. https://doi.org/10.1016/j.neuropsychologia.2006. 05.001

?vegar, D., Kardum, I., & Poli?, M. (2013). Happy face superiority effect in change detection paradigm.,(2), 249?269.

Sweeny, T. D., Haroz, S., & Whitney, D. (2013). Perceiving group behavior: Sensitive ensemble coding mechanisms for biological motion of human crowds.,(2), 329. https://doi.org/10.1037/a0028712

Todd, A. R., Galinsky, A. D., & Bodenhausen, G. V. (2012). Perspective taking undermines stereotype maintenance processes: Evidence from social memory, behavior explanation, and information solicitation.,(1), 94?108.

Tottenham, N., Tanaka, J., Leon, A., McCarry, T., Nurse, M., Hare, T., Marcus, D., Westerlund, A., Casey, B., & Nelson, C. (2009). The NimStim set of facial expressions: Judgments from untrained research participants.,(3), 242?249. https://doi.org/10.1016/j.psychres.2008.05. 006

van Kleef, G. A. (2009). How emotions regulate social life: The emotions as social information (EASI) model.,(3), 184?188. https:// doi.org/10.1111/j.1467-8721.2009.01633.x

Vuk?i?-Mihaljevi?, ?., & Mandi?, N. (2001). Psychodynamics and regression of social groups.,(1), 213?226.

Walker, D., & Vul, E. (2013). The cheerleader effect: Hierarchical encoding of individuals in groups.,(9), 853?853. https://doi.org/10.1167/13.9.853

Wieser, M. J., & Brosch, T. (2012). Faces in context: A review and systematization of contextual influences on affective face processing.,. https://doi. org/10.3389/fpsyg.2012.00471

Xu, H., Duan, J. P., Chen, M., & Yin, J. (2019). The mechanisms of action prediction based on social group information.(3), 239?252. https://doi.org/CNKI:SUN:YXNX.0.2019-03-005

[徐浩, 段繼鵬, 陳滿, 尹軍. (2019). 基于群體信息的行為預測機制.(3), 239?252. https://doi.org/ CNKI:SUN:YXNX.0.2019-03-005]

Xu, Q., Yang, Y. P., Zhang, E. T., & Zhang, F. (2014). The influence of context on facial expression processing: Retrospect and prospect.(3), 252?262. https://doi.org/10.3969/j.issn.1006-6020.2014.03. 008

[徐強, 楊亞平, 張恩濤, 張鋒. (2014). 背景因素影響面部表情加工的研究: 現狀與展望.(3), 252? 262. https://doi.org/10.3969/j.issn.1006-6020.2014.03.008]

Xu, Q. R., He, W. Q., Ye, C. X., & Luo, W. B. (2019). Attentional bias processing mechanism of emotional faces: Anger and happiness superiority effects.(1), 90?98. https://doi.org/10.13294/j.aps.2018.0098

[許茜如, 何蔚祺, 葉超雄, 羅文波. (2019). 情緒面孔注意偏向的加工機制: 憤怒和快樂優勢效應.(1), 90?98. https://doi.org/10.13294/j.aps.2018.0098]

Yin, J., Duan, J., Huangliang, J., Hu, Y., & Zhang, F. (2022). Members of highly entitative groups are implicitly expected to behave consistently based on their deep-level goals instead of their shallow-level movements.,(1), 13? 28. https://doi.org/10.1037/xlm0001009

Ying, H., Burns, E., Lin, X., & Xu, H. (2019). Ensemble statistics shape face adaptation and the cheerleader effect.,(3), 421? 436. https://doi.org/10.1037/xge0000564

Yzerbyt, V., & Demoulin, S. (2010). Intergroup relations. In S. T. Fiske, D. T. Gilbert, & G. Lindzey (Eds.),(5th ed., pp. 1024?1083). Hoboken, NJ: Wiley.

Influence of group information on facial expression recognition

WANG Weihan1, CAO Feizhen1,2, YU Linwei1, ZENG Ke3, YANG Xinchao1, XU Qiang1

(1Department and Institute of Psychology, Ningbo University, Ningbo 315211, China)(2School of Psychology, South China Normal University, Guangzhou 510631, China)(3Department of Psychology, Sun Yat-sen University, Guangzhou 510006, China)

Emotions surface during interaction between individuals. Thus, an accurate recognition of facial expressions is essential in the realm of social interactions. In recent years, numerous studies have revealed that individuals not only depend on facial configuration information for identifying facial expressions but also place considerable emphasis on contextual information extracted from external cues beyond the face. People’s behavior frequently unfolds within intricate social group dynamics, wherein individuals often perceive and interpret the facial expressions of their fellow group members during interaction. However, the impact of group information on facial expression recognition, being an essential social contextual factor, remains somewhat unclear. Hence, three experiments were conducted to investigate the influence exerted by group information on the recognition of facial expressions.

The stimuli used in the study were happy, fearful, and neutral face images selected from the NimStim set, including 15 pictures (seven females) of each of the aforementioned emotions. Group information was manipulated following the presentation of a fixation cross through perceptual cues. Subsequently, during the facial expression recognition phase, participants were instructed to recognize the facial expressions exhibited by target individuals. In the first experiment, participants were instructed to rate the intensity of target facial expressions on a six- emotion scale, and the surrounding facial expressions were always congruent with the target facial expressions. A total of 29 college students (16 females, mean age 20.00 ± 1.80 years) were recruited to participate in this experiment. In Experiments 2 and 3, we manipulated the emotional congruency between the surrounding faces and the target faces during the facial expression recognition phase. Additionally, we controlled for variations in physical characteristics across different experimental conditions. The task requirement of Experiment 2 was the same as that of Experiment 1. However, in Experiment 3, participants were instructed to judge the target facial expressions by pressing corresponding keys on the keyboard as quickly and accurately as possible. A total of 26 college students (14 females, mean age 21.15 ± 1.99 years) participated in Experiment 2, and 32 college students (15 females, mean age 21.20 ± 1.60 years) participated in Experiment 3.

Results revealed the following: (1) Compared with emotion-incongruent conditions, emotional congruency between target faces and surrounding faces resulted in shorter RTs and higher accuracy. (2) Group information regulated the influence of surrounding facial expressions on target facial expression recognition. Specifically, under group conditions, participants tended to recognize target facial expressions according to the emotional state of the surrounding faces. When the target facial expressions in line with the expectations established by the participants that group members have congruent emotional state, the recognition of target facial expressions was faster and more accurate than incongruent conditions. However, under nongroup conditions, participants recognized target facial expressions without reference to the emotional states of the surrounding faces. (3) Participants exhibited a faster and more accurate recognition of happy faces, indicating the recognition advantage effect for happy facial expressions.

Results revealed that group information influenced facial expression recognition, individuals recognized facial expressions based on the social relationship between the interactions, and understanding social interaction plays an important role in the process of emotion perception.

emotion congruency effect, emotion recognition, expectation, facial expression, group information

2023-05-25

* 國家教育部人文社會科學研究項目/青年基金項目(18YJC190027)。

王偉晗和曹斐臻同為第一作者。

徐強, E-mail: xuqiang1117@163.com

B842

猜你喜歡
面孔恐懼一致性
關注減污降碳協同的一致性和整體性
本期面孔
注重教、學、評一致性 提高一輪復習效率
IOl-master 700和Pentacam測量Kappa角一致性分析
多變的面孔
自然面孔
住校記:她在夢里表達恐懼
恐懼更奇怪
恐懼
恐懼的對立面
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合