丁小斌 康鐵君 趙 鑫 付軍軍
(西北師范大學(xué)心理學(xué)院,行為康復(fù)訓(xùn)練研究中心,蘭州730070)
面孔與軀體作為人際互動的信息載體,在識別他人的情緒、意圖等方面發(fā)揮重要作用。以往心理學(xué)與認(rèn)知神經(jīng)科學(xué)的研究更多的關(guān)注面孔及面部表情,情緒軀體語言(Emotional Body Language,EBL)并未引起研究者的足夠關(guān)注。近年來,與軀體表情和動作有關(guān)的研究及成果數(shù)量不斷增加,其中大量研究報(bào)告發(fā)表在Science(Aviezer, Trope,& Todorov, 2012)、Nature Reviews Neuroscience(de Gelder, 2006)、Neuron(Moro et al., 2008)、PNAS(deGelder,Snyder,Greve,Gerard,& Hadjikhani,2004; Meeren, van Heijnsbergen, & de Gelder, 2005;Righart &deGelder, 2007; van den Stock et al.,2011)等國際頂級學(xué)術(shù)期刊,國內(nèi)一些研究者也開始將目光轉(zhuǎn)向軀體表情。軀體表情研究的核心問題是軀體線索在情緒知覺加工中的作用,以及軀體表情與面部表情的關(guān)系(丁小斌,康鐵君,趙鑫,2017),其中 “軀體表情與面部表情相比是否存在特殊的加工過程?軀體表情較面部表情是否存在特異性目標(biāo)選擇分類區(qū)域?”等問題是軀體表情區(qū)別于面部表情的關(guān)鍵。對上述問題的探討有助于進(jìn)一步完善以往基于面部表情研究的情緒加工理論。本文旨在以面部表情知覺過程的研究為參考,通過系統(tǒng)梳理軀體表情加工過程及其潛在神經(jīng)基礎(chǔ)的研究,總結(jié)和歸納軀體表情認(rèn)知加工進(jìn)程的特征、心理意義及影響因素,并在此基礎(chǔ)上進(jìn)一步歸納和分析軀體表情與面部表情知覺加工進(jìn)程的異同,以期為今后軀體表情與面部表情的研究提供參考。
有關(guān)情緒面孔(Luo, Holroyd, et al., 2010; Luo,Feng, He, Wang, & Luo, 2010)和情緒場景(Tamietto& de Gelder, 2010)的研究發(fā)現(xiàn),人腦在60~130 ms就可以對負(fù)性情緒刺激進(jìn)行自動化加工,并且負(fù)性刺激較中性刺激誘發(fā)更加明顯的枕顳區(qū)正成分P1(王麗麗,賈麗娜,羅躍嘉,2016)。近年來有研究發(fā)現(xiàn),情緒軀體刺激在早期階段也能得到加工,存在與面孔自動加工相似的 P1成分。Meeren等(2005)的研究采用面孔?軀體情緒一致/不一致范式, 考察了恐懼與憤怒情緒面孔?軀體的早期知覺加工過程, 結(jié)果顯示, 不論面孔–軀體情緒是否一致, 當(dāng)刺激呈現(xiàn)100 ms左右, 枕顳位置均出現(xiàn)增強(qiáng)的P1成分。研究者認(rèn)為, 人腦在視覺加工早期階段就能整合面孔和軀體的威脅信息。此外,直接使用面孔遮蔽的情緒軀體材料的研究也再次驗(yàn)證了軀體表情存在與面部表情一致的 P1效應(yīng),恐懼(Gu, Mai, & Luo, 2013; van Heijnsbergen, Meeren,Grèzes, & de Gelder, 2007)和憤怒(何振宏, 趙婷,張丹丹, 2016)軀體表情較中性或高興軀體表情刺激誘發(fā)更正的 P1波形(或較短的潛伏期)。此外,與情緒面孔和場景的自動化加工相似, 軀體表情也存在明顯的負(fù)性情緒偏向。
對比以往基于事件相關(guān)電位(Event Related Potentials, ERPs)、同步腦電?功能磁共振(ERP-fMRI)及腦磁圖(Magnetoencephalography)技術(shù)的研究可以發(fā)現(xiàn), 情緒面孔和軀體刺激的早期自動化加工與視覺皮層和皮層下神經(jīng)通路有關(guān)。例如, 恐懼情緒面孔出現(xiàn)后40~50 ms, 就可觀測到V1 (primary visual cortex; Ales, Yates, & Norcia, 2010; Zhu &Luo, 2012), 及后部腹側(cè)枕顳區(qū)(bilateral ventral occipito-temporal)與右側(cè)前顳中皮層(right anterior medial temporal) (Ales et al., 2010; Luo, Holroyd,Jones, Hendler, & Blair, 2007; Morel, Beaucousin, Perrin,& George, 2012)在內(nèi)的早期視覺皮層的活動, 并且情緒面孔刺激較中性面孔刺激對上述皮層的激活程度也存在差異。最近, 一項(xiàng)有關(guān)盲視病人的研究有力地證明了皮層下通路在早期情緒信息加工中的重要性, 研究發(fā)現(xiàn), 左側(cè)枕葉損傷的病人不能察覺右側(cè)視野出現(xiàn)的與情緒無關(guān)的刺激, 但恐懼刺激呈現(xiàn)后杏仁核卻存在較強(qiáng)地激活(Oliver,Mao, & Mitchell, 2014)。有關(guān)情緒軀體刺激早期自動化加工的研究也發(fā)現(xiàn)類似的現(xiàn)象, 支持情緒信息可以不經(jīng)早期視覺皮層, 直接經(jīng)由上丘腦、枕核等皮層下神經(jīng)通路通達(dá)杏仁核(Borgomaneri,Vitale, Gazzola, & Avenanti, 2015; Hadjikhani & de Gelder, 2003; Sinke, Sorger, Goebel, & de Gelder,2010; van den Stock et al., 2011)。從上述研究的結(jié)論不難發(fā)現(xiàn), 皮層結(jié)構(gòu)和皮層下通路在早期視覺自動化加工中的作用可能存在分離, 紋狀皮質(zhì)(striate cortex)在內(nèi)的皮層結(jié)構(gòu)對視覺刺激的輪廓、空間特征等信息敏感; 而以杏仁核為代表的皮層下通路對刺激的情緒信息更敏感。此外, 皮層下通路與皮層結(jié)構(gòu)對情緒刺激的加工速度也不盡相同, 其中皮層下通路的加工速度更快。例如, 恐懼面孔刺激呈現(xiàn)10~20 ms即可觀察到下丘/丘腦(hypothalamus/thalamus area)的激活, 20~40 ms杏仁核出現(xiàn)明顯反應(yīng)(Luo, Holroyd, et al., 2010; Luo et al, 2007;Williams, Morris, McGlone, Abbot, & Mattingley,2004)。然而, 與情緒面孔P1成分密切相關(guān)的枕下后部皮層(inferior lateral occipital cortex) (包含枕葉面孔區(qū), occipital face area, OFA)在刺激呈現(xiàn)后60~100 ms才能出現(xiàn)顯著激活(Pitcher, Walsh,Yovel, & Duchaine, 2007; Sadeh, Podlipsky, Zhdanov,& Yovel, 2010)。
早期自動化加工中軀體表情刺激與面部表情刺激相比是否存在加工優(yōu)勢?Meeren等(2005)對比恐懼、憤怒情緒的軀體(面孔模糊)刺激與面孔刺激的研究發(fā)現(xiàn), 與兩種情緒身體姿勢相比, 不管是恐懼還是憤怒的面孔刺激都能誘發(fā)更正的 P1波幅, 且潛伏期更長。然而, 張丹丹, 趙婷, 柳昀哲和陳玉明(2015)直接對比恐懼、中性情緒的軀體(面孔模糊)與面孔加工進(jìn)程的研究發(fā)現(xiàn), 恐懼軀體姿勢比恐懼面孔誘發(fā)更大的P1波幅。張丹丹等認(rèn)為上述研究結(jié)果的差異, 一方面可能源于二者的研究中所用刺激的情緒類別不同; 另一方面P1作為早期知覺加工的外源性成分, 對刺激的低水平威脅信息敏感(Pourtois, Dan, Grandjean, Sander,& Vuilleumier, 2005; Rossion & Jacques, 2008), 恐懼情緒身體姿勢與恐懼情緒面孔相比是更低頻的信息, 因而誘發(fā)更加明顯的P1波幅。盡管從上述電生理的研究結(jié)果無法推論出軀體表情加工在此階段占有優(yōu)勢, 但是軀體情緒語言表征的動作信息不但能夠激活面部表情的加工機(jī)制(Adolphs,2002)未涉及的額下回(inferior frontal gyrus, IFG)、尾狀核(caudate nucleus, CN)及殼核(putamen, PT)(Gazzaniga, Lvry, & Mangun, 2013; van de Riet,Grèzes, & de Gelder, 2009)等在內(nèi)的鏡像神經(jīng)元系統(tǒng)(mirror neuron systems)和基底神經(jīng)節(jié)(basal ganglia)結(jié)構(gòu), 還能能夠誘發(fā)與防御相關(guān)的自主神經(jīng)反應(yīng)和運(yùn)動反應(yīng)通路(Pichon, de Gelder, & Grèzes,2008, 2009)的活動。此外, 較恐懼、憤怒的面孔肌肉線索變化, 具有威脅性的軀體動作是更加明顯的低頻空間信息, 更易受初級視皮層(紋狀體皮質(zhì))和皮層下通路的加工(Tamietto & de Gelder, 2010)。因此, 在自動化視覺加工階段, 情緒軀體較情緒面孔涉及更加廣闊的神經(jīng)系統(tǒng), 且對大腦神經(jīng)結(jié)構(gòu)和網(wǎng)絡(luò)的激活可能更早。今后的研究還需借助更為嚴(yán)格控制意識、注意資源的實(shí)驗(yàn)范式, 采用MEG、ERP-fMRI及單細(xì)胞記錄(single-cell recording)等技術(shù), 進(jìn)一步探討動作對早期情緒加工影響的機(jī)制。
面孔刺激呈現(xiàn)120~200 ms, 枕顳皮層會出現(xiàn)一個(gè)特異性的負(fù)波——N170, 面孔刺激倒置呈現(xiàn)后 N170成分的倒置效應(yīng)(inversion effect)顯著,反映了人腦對面孔的早期視覺結(jié)構(gòu)化編碼(俠牧,李雪榴, 葉春, 李紅, 2014; Eimer, 2000; Gliga &Dehaene-Lambertz, 2005)。與面孔的構(gòu)型編碼相似,軀體刺激(面孔模糊, 下同)呈現(xiàn)130~210 ms枕顳區(qū)域也會產(chǎn)生與面孔相似的N170成分(Thierry et al.,2006; Meeren et al., 2005; van Heijnsbergen et al.,2007)。此外, 將軀體表情刺激倒置(何振宏等,2016; Stekelenburg & de Gelder, 2004; Minnebusch,Keune, Suchan, & Daum, 2010; Righart & de Gelder,2007)也會誘發(fā)與情緒面孔倒置效應(yīng)相似的行為與電生理反應(yīng)。因此, 研究者普遍認(rèn)為, 軀體知覺可能也是基于構(gòu)型加工(configural processing) (陳麗, 李偉霞, 張燁, 張慶林, 2015; Minnebusch &Daum, 2009)。
情緒軀體與面孔雖然有著相似的代表構(gòu)型加工的N170成分, 但其潛在神經(jīng)基礎(chǔ)并不相同。使用MEG的研究發(fā)現(xiàn), 面孔刺激的N170源于顳下皮層后部區(qū)域(posterior of inferior temporal region)(Hietanen, Kirjavainen, & Nummenmaa, 2014; Ishizu,Amemiya, Yumoto, & Kojima, 2010); ERP溯源分析的研究認(rèn)為, 面孔刺激的 N170成分與梭狀回面孔區(qū)(fusiform face area, FFA)密切相關(guān)(Thierry et al., 2006); 基于同步ERP-fMRI技術(shù)的研究同樣發(fā)現(xiàn), N170與FFA和顳上溝(superior temporal sulcus, STS)的活動密切相關(guān), 而與枕葉面孔區(qū)(occipital face cortex, OFA)是否激活無關(guān)(Pitcher et al., 2007; Sadeh et al., 2010)。但是, 軀體刺激的N170成分主要反映了與顳中回(middle temporal gyrus)、枕中回(middle temporal gyrus)相鄰的外紋狀皮層身體區(qū)(extrastriate body area, EBA)的活動(Ishizu et al., 2010; Meeren, de Gelder, Ahlfors,H?m?l?inen, & Hadjikhani, 2013; Thierry et al.,2006)。由于大腦中負(fù)責(zé)面孔和軀體加工的神經(jīng)網(wǎng)絡(luò)并不完全重合(丁小斌等, 2017), 進(jìn)一步對比發(fā)現(xiàn), 參與軀體和面孔構(gòu)型加工的特異性皮層存在明顯差異, FFA在面孔早期視覺分析中起關(guān)鍵作用, 但是與 FFA毗鄰的梭狀回軀體區(qū)(fusiform body area, FBA)并未參與軀體信息的早期加工;同樣地, OFA并未參與面孔的構(gòu)型編碼, 但與OFA相鄰的EBA卻負(fù)責(zé)軀體的構(gòu)型加工。概括而言, 與軀體刺激相比, 面孔刺激對負(fù)責(zé)視覺編碼的皮層激活范圍更廣, 與自動化加工階段中軀體激活更加廣泛的神經(jīng)網(wǎng)絡(luò)形成鮮明對比。這可能與面孔、軀體傳遞信息的差異及大腦對此類信息加工的指向性、特異性有關(guān)。與面孔提供的種族、情緒、性別及年齡等復(fù)雜信息相比, 軀體表達(dá)的情緒、動作(如揮動憤怒的拳頭)及其意圖信息直接指向個(gè)體生存相關(guān)的自動防御機(jī)制, 因此需要早期視覺皮層結(jié)構(gòu)與皮層下通路對相關(guān)信息快速傳導(dǎo)與反應(yīng); 而在隨后的構(gòu)型階段, 面孔獨(dú)特的身份(與 FFA有關(guān))與情緒(與 STS有關(guān))信息則需更多的大腦皮層參與, 對其表達(dá)的復(fù)雜信息進(jìn)行更加精細(xì)的編碼, 以適應(yīng)社會交往和人際互動的需求。
軀體和面孔作為情緒信息的重要載體, 二者的構(gòu)型加工是否受情緒信息的影響?Eimer, Holmes和 McGlone (2003)認(rèn)為, 反映面孔刺激構(gòu)型加工的 N170較少受情緒信息的影響, 但更多研究支持情緒信息影響N170成分(Hietanen & Astikainen,2013; Righart & de Gelder, 2008)。如 Righart和 de Gelder (2008)的一項(xiàng)研究將恐懼、高興面孔嵌入中性、高興、恐懼情緒場景中, 要求被試根據(jù)面孔線索完成情緒分類任務(wù)。結(jié)果發(fā)現(xiàn), 恐懼面孔與恐懼背景匹配的情緒一致刺激誘發(fā)的 N170振幅顯著大于恐懼面孔與高興、中性情緒背景匹配的情緒不一致刺激。那么, 情緒信息是否會影響軀體表情的早期構(gòu)型加工?Stekelenburg和de Gelder(2004)的研究顯示, 雖然恐懼與中性情緒軀體(面孔模糊處理)的加工過程都存在 N170, 但情緒對N170的影響并不顯著, van Heijnsbergen等(2007)的研究也得出類似的結(jié)論。張丹丹等(2015)在前人研究的基礎(chǔ)上引入中性表情作為基線水平, 對比考察恐懼、中性情緒的面孔和軀體姿勢誘發(fā)的N170是否存在差異。結(jié)果依然發(fā)現(xiàn), 情緒對反映軀體構(gòu)型加工的 N170的調(diào)節(jié)作用并不顯著, 而對面孔構(gòu)型加工的 N170影響明顯, 更重要的是情緒面孔刺激較情緒軀體刺激誘發(fā)更加顯著的N170波幅, 與Meeren等(2005)的研究結(jié)果相似。張丹丹等(2015)認(rèn)為, 在 P1加工階段個(gè)體已經(jīng)完成對恐懼等威脅信息的初步識別; 在隨后的結(jié)構(gòu)編碼階段, 人腦將更多資源轉(zhuǎn)向情緒載體的分類和編碼。綜上所述, 面孔較軀體傳遞的信息更加復(fù)雜, 面部表情構(gòu)型加工占用了更多認(rèn)知資源,較情緒軀體的構(gòu)型加工更具優(yōu)勢。
與面孔構(gòu)型加工的 N170處于相同時(shí)間窗口(120~200 ms)的頂葉中央皮層正成分(vertex positive potential, VPP)也同樣受到研究者的關(guān)注。VPP與 N170是由位于枕顳皮層的相同偶極子產(chǎn)生(Campanella, Quinet, Bruyer, Crommelinck, &Guerit, 2002; Feuerriegel, Churches, Hofmann, & Keage,2015; Joyce & Rossion, 2005; Lu, Zhang, Hu, &Luo, 2011), 都反映了面孔刺激的構(gòu)型加工(Luo,Feng, et al, 2010; Stekelenburg & de Gelder, 2004)。進(jìn)一步分析發(fā)現(xiàn), VPP的來源與顳上溝(superior temporal sulcus, STS)的激活密切相關(guān)(r= 0.72,p=0.03), 與FFA的激活次之(r= 0.59,p= 0.07), 而與OTC是否激活無關(guān)(r= 0.41,p= 0.24, 見Sadeh et al., 2010), 因此VPP與N170潛在的神經(jīng)基礎(chǔ)相似。由于STS對面孔情緒信息的改變更敏感, FFA對面孔身份信息的識別更敏感(Foley, Rippon,Thai, Longe, & Senior, 2011; Yovel & Kanwisher,2005), 因此可以推測VPP可能對情緒信息更敏感。
對比情緒面孔(Luo, Feng, et al, 2010)與情緒軀體(Stekelenburg & de Gelder 2004; van Heijnsbergen et al., 2007; 張丹丹等, 2015)加工過程的研究, 不難發(fā)現(xiàn), 軀體刺激誘發(fā)了與面孔刺激相似的 VPP成分, 并且二者 VPP成分的情緒效應(yīng)都顯著, 即恐懼刺激較中性刺激引發(fā)的VPP波幅更正。值得注意的是, 以往研究中情緒對VPP的影響主要體現(xiàn)為區(qū)分情緒(多為負(fù)性情緒)刺激與中性刺激,即實(shí)現(xiàn)情緒與非情緒信息的分離。然而, 除中性以外的不同情緒類型刺激對VPP的影響并不明顯。
與軀體刺激和面孔刺激誘發(fā)不同 N170波幅相似, 二者對VPP波幅的影響也存在差異。張丹丹等(2015)的研究直接對比了恐懼軀體與面孔誘發(fā) VPP的成分, 發(fā)現(xiàn) VPP的情緒載體效應(yīng)顯著,表現(xiàn)為軀體圖片刺激較面孔圖片刺激誘發(fā)的 VPP波幅較小, 且潛伏期較短。與上文中的面孔和軀體對N170的調(diào)節(jié)作用一致。其原因可能是, 在構(gòu)型加工階段, 情緒面孔加工可能較情緒軀體加工占用更多認(rèn)知資源。
直接對比情緒面孔與軀體加工過程的研究發(fā)現(xiàn), 包含頭部但面孔模糊的軀體刺激誘發(fā)的N170波峰顯著早于面孔刺激(Righart & de Gelder, 2007;Stekelenburg & de Gelder, 2004)。但是, 孤立的軀體刺激(無頭部)所誘發(fā)的特異性負(fù)波的最大峰值顯著慢于面孔刺激的N170(Gliga & Dehaene-Lambertz,2005; Thierry et al., 2006), 研究者為區(qū)別以往面孔模糊的軀體刺激相關(guān)的 N170成分, 將這一特異性負(fù)波稱為 N190 (Borhani, Làdavas, Maier,Avenanti, & Bertini, 2015; Gliga & Dehaene-Lambertz,2005; Righart & de Gelder, 2007; Thierry et al., 2006;van Heijnsbergen et al., 2007), 也稱 N1(Taylor,Roberts, Downing, & Thierry, 2010), 其反映了早期視覺加工階段, 對人類軀體的抽象信息(如情緒及動作等)的編碼, 而不是對低水平視覺特征的反應(yīng)(Thierry et al., 2006)。與反映面孔視覺編碼加工的N170相比, 軀體視覺結(jié)構(gòu)編碼相關(guān)的N190成分的波峰所在時(shí)間窗口出現(xiàn)明顯地延遲(面孔N170最大峰值出現(xiàn)在140~180 ms, 軀體N190最大峰值出現(xiàn)在190~230 ms), 且軀體的N190成分的波幅更加顯著(Rossion & Jacques, 2008; Thierry et al., 2006)。采用EEG溯源分析(Thierry et al.,2006), MEG (Ishizu et al., 2010; Meeren, Hadjikhani,Ahlfors, H?m?l?inen, & de Gelder, 2016), 以及同步EEG-fMRI (Taylor, Wiggett, & Downing, 2010)技術(shù)的研究發(fā)現(xiàn), 側(cè)枕顳皮層的 EBA可能是N190潛在的神經(jīng)基礎(chǔ)。
N190不僅對情緒與中性軀體刺激的反應(yīng)不同, 而且對靜止與運(yùn)動軀體刺激的反應(yīng)也存在差異。比如, Borhani等(2015, 2016)使用仿真模擬軀體刺激的研究發(fā)現(xiàn), 恐懼、高興以及中性情緒對N190的調(diào)節(jié)作用存在差異, 其中恐懼表情刺激誘發(fā)的N190波幅最大; 同時(shí), 與靜止軀體刺激相比,運(yùn)動軀體刺激誘發(fā)的 N190波幅更明顯。值得注意的是, N190成分對情緒軀體語言獨(dú)特的表征方式, 區(qū)別于以往研究中對不同情緒軀體信息不敏感的N170成分。一方面, 與杏仁核及頂葉皮層相連接的EBA是人類軀體知覺的關(guān)鍵區(qū)域, 對軀體語言表達(dá)的情緒(Downing & Peelen, 2011; van de Riet et al., 2009; van den Stock, Vandenbulcke, Sinke,& de Gelder, 2012)與動作(Borgomaneri, Gazzola,& Avenanti, 2015; Downing & Peelen, 2016)敏感,EBA對軀體的視覺編碼加工表現(xiàn)為提取軀體傳遞的情緒和行為信息, 因而表征為 N190受軀體情緒、動作信息的調(diào)節(jié)。另一方面, EBA對軀體的信息加工可能并不同步, 在視覺加工早期(140~180 ms)對軀體的輪廓信息進(jìn)行構(gòu)型編碼;在稍后的加工階段(190~240 ms)對軀體的情緒和動作信息進(jìn)行精細(xì)編碼。
來自神經(jīng)影像的研究為軀體情緒和動作的精細(xì)編碼提供了支持。研究發(fā)現(xiàn), 當(dāng)觀察人體運(yùn)動行為圖片時(shí), 激活了額頂神經(jīng)網(wǎng)絡(luò)(Borgomaneri,Gazzola, & Avenanti, 2012; Avenanti, Annella, Candidi,Urgesi, & Aglioti, 2013a; Avenanti, Candidi, &Urgesi, 2013b)、EBA 及顳下葉(inferior temporal lobe) (Meeren et al., 2013)。由于額頂運(yùn)動系統(tǒng)、顳下葉屬于軀體表情加工模型的皮層上加工通路(de Gelder, Hortensius, & Tamietto, 2012), 反映了頂額皮層對視覺刺激非低頻特征的精細(xì)化加工,因而 Borhani等(2015) 認(rèn)為:“N190這一特殊的視覺編碼, 及隨后的注意指向加工, 代表了對他人情緒及意圖的高效識別機(jī)制”。
有關(guān)面部表情(Calvo & Beltrán, 2014)和情緒場景(Sch?nwald & Müller, 2014; Thom et al., 2014)的研究發(fā)現(xiàn), 當(dāng)情緒刺激呈現(xiàn) 200~350 ms, 枕顳皮層區(qū)域會出現(xiàn)一個(gè)特異性的早期后部負(fù)波(Early Posterior Negativity, EPN) (Schupp, Flaisch,Stockburger, & Jungh?fer, 2006; Sch?nwald &Müller, 2014), 與刺激的知覺編碼和早期選擇性加工有關(guān)(Hietanen et al., 2014)。EPN反映了早期視覺編碼完成后, 情緒信息與自上而下或目標(biāo)驅(qū)動注意(goal-driven attention)對凸顯刺激進(jìn)一步的選擇性加工(Borhani et al., 2015; Calvo & Beltrán,2014)。Flaisch, Schupp, Renner和 Jungh?fer (2009),Flaisch, H?cker, Renner和 Schupp (2011)研究發(fā)現(xiàn),EPN對負(fù)性情緒效價(jià)的手部姿勢敏感。隨后的一些研究也顯示, 負(fù)性情緒軀體刺激較正性或中性情緒軀體誘發(fā)更加明顯的EPN波幅(Borhani et al.,2015; Flaisch & Schupp, 2013; Hietanen et al., 2014)。
對比上述研究可以發(fā)現(xiàn), N170成分受不同面部表情和軀體表情的調(diào)節(jié), 采用情緒場景刺激的研究卻未發(fā)現(xiàn)類似的N170效應(yīng); 然而面部表情、軀體表情及情緒場景均能對EPN產(chǎn)生影響。本文認(rèn)為:首先, 人腦對軀體和面孔的表情信息加工有別于情緒場景加工。與情緒場景的加工不同,面部表情和軀體表情構(gòu)型加工的 N170/VPP潛在的神經(jīng)基礎(chǔ)部分重合或相鄰; 而情緒場景并不是基于構(gòu)型加工, 并不能激活與面孔和軀體構(gòu)型加工相關(guān)的特異性腦區(qū), 因而不會產(chǎn)生類似于N170的效應(yīng)。其次, 視覺加工階段情緒信息的識別可能需要不同等級的注意資源。早期自動化加工(P1)和隨后的視覺結(jié)構(gòu)編碼(N170)可能是基于自下而上或刺激驅(qū)動(stimulus-driven)的注意控制, 對有意注意的選擇過濾機(jī)制的依賴較少(Theeuwes,2010); 而在視覺加工后期, 情緒面孔、軀體及場景都能夠吸引自上而下或目標(biāo)驅(qū)動的注意控制明確地指向威脅信號, 從而為完善早期對威脅信號的初步加工提供了前提和條件, 因此不論面部表情、軀體表情, 還是情緒場景的加工都存在與注意指向加工相關(guān)的EPN。
面部表情加工模型(Adolphs, 2002)和情緒軀體語言加工模型(de Gelder et al., 2004, 2012)都認(rèn)為, 存在一個(gè)由頂葉?前額葉?杏仁核基本回路構(gòu)成的神經(jīng)網(wǎng)絡(luò), 負(fù)責(zé)視覺加工晚期階段輸入視覺情緒信息的分類、評估等精細(xì)加工。與理論模型預(yù)測一致, 來自電生理的研究發(fā)現(xiàn), 面孔情緒刺激(Luo, Feng, et al, 2010; Recio, Wilhelm, Sommer,& Hildebrandt, 2017; Spapé, Harjunen, & Ravaja,2017)和軀體情緒刺激(何振宏等, 2016; Gu et al.,2013; Flaisch & Schupp, 2013)呈現(xiàn) 300 ms后, 產(chǎn)生典型的P3與晚期正成分(Late Positive Component,LPC; 與 P3不同, LPC的持續(xù)時(shí)間較長(可以到1000 ms), 甚至在下一個(gè)刺激開始后還能觀測,見 Hietanen等(2014)), 反映了頂額皮層對情緒刺激的晚期加工。在以上研究中, P3和LPC不但可以區(qū)分情緒與中性刺激, 而且能夠辨別不同類型的情緒, 體現(xiàn)了晚期加工階段大腦對情緒信息的精細(xì)加工(Gu et al., 2013; Luo, Holroyd, et al., 2010)。
軀體表情與面部表情的晚期加工依然存在差異。表現(xiàn)為面部表情比軀體表情誘發(fā)更正的P3波幅(張丹丹等, 2015)。由于P3、LPC的潛伏期受杏仁核和眶額區(qū)聯(lián)合皮層調(diào)節(jié)的情緒增益控制(emotional gain control), 反映了情緒信息對認(rèn)知加工的影響; 而P3、LPC的波幅則受背側(cè)額頂神經(jīng)網(wǎng)絡(luò)調(diào)節(jié)的注意增益控制(attentional gain control)的影響, 反映了意識與注意對認(rèn)知加工的調(diào)節(jié)(Hietanen & Astikainen, 2013; Hietanen et al.,2014; Pourtois, Schettino, & Vuilleumier, 2013), 因而P3與LPC波幅的增強(qiáng)代表了對刺激高級認(rèn)知加工的分類和評價(jià)需要更多注意資源。因此, 視覺加工后期階段, 面部表情加工可能比軀體表情占用更多的注意資源, 用于提取與目標(biāo)面孔的身份和情緒信息相匹配的圖式或長時(shí)記憶線索, 并進(jìn)行相應(yīng)的行為決策和反應(yīng)。此外, 這種自上而下的認(rèn)知調(diào)控可以反饋和彌補(bǔ)早期自動化加工中未被充分加工的高頻空間頻率的細(xì)節(jié)信息。
綜上所述, 軀體表情和面部表情有著類似的視覺加工機(jī)制。在不同加工階段, 二者的ERP成分、心理功能及影響因素相似, 并且二者潛在的神經(jīng)基礎(chǔ)部分重合或鄰近。與面部表情的早期自動化加工相似, 反映了丘腦、杏仁核等皮層下加工通路和背側(cè)視覺皮層結(jié)構(gòu)對軀體動作、姿態(tài)表達(dá)的威脅情緒信息無意識的自動化加工。軀體表情與面部表情知覺過程會出現(xiàn)相似的N170, 代表了顳枕區(qū)視覺皮層對二者早期的視覺構(gòu)型編碼,但二者所涉及的神經(jīng)基礎(chǔ)并不完全重合。相比較而言, 此階段面部表情的 N170與 VPP更具加工優(yōu)勢。隨后出現(xiàn)的EPN則反映了對軀體表情和面部表情的注意指向加工; P3與LPC反映了頂額神經(jīng)網(wǎng)絡(luò)系統(tǒng)對軀體表情和面部表情的高級認(rèn)知加工, 面部表情較軀體表情占用更多的注意資源。軀體表情加工也存在特殊的視覺結(jié)構(gòu)編碼成分N190, 其對軀體姿勢表達(dá)的情緒和動作信息敏感,反映了對軀體抽象信息的精細(xì)加工, 而不是對低水平視覺特征的反應(yīng)。軀體及軀體表情知覺雖然作為一個(gè)新興的研究領(lǐng)域, 超越了傳統(tǒng)面孔識別和表情研究僅在視知覺領(lǐng)域的局限, 將更多真實(shí)情景引入了認(rèn)知神經(jīng)領(lǐng)域(方平, 李洋, 姜媛,2009)。但是, 研究者對其認(rèn)知加工過程及潛在神經(jīng)基礎(chǔ)等問題只是進(jìn)行了初步地探討, 當(dāng)前有限的文獻(xiàn)和研究成果使得研究者們難以對軀體知覺的認(rèn)知神經(jīng)機(jī)制得出準(zhǔn)確的推論(陳麗等, 2015),該領(lǐng)域尚有諸多問題有待進(jìn)一步探究。
首先, 軀體表情知覺過程中雖然存在自動化加工的P1成分, 但是軀體的情緒與動作之間的生理基礎(chǔ)和信息負(fù)荷是否存在差異?其對早期自動化加工的影響是重合還是分離?這些問題并不清楚。因此, 有必要進(jìn)一步分離動作與情緒信息對軀體表情知覺的調(diào)節(jié)作用, 如探究運(yùn)動內(nèi)容較少的情緒軀體姿勢(如驚訝或悲傷), 考察二者對早期加工的影響。此外, 當(dāng)前已有研究者關(guān)注不同面部表情?聲音情緒變化過程(Chen et al., 2016),動態(tài)軀體情緒及動態(tài)面孔?軀體情緒的知覺過程、神經(jīng)振蕩等問題也有必要進(jìn)一步探究。
其次, 基于上文的分析可知軀體表情的視覺編碼階段不僅涉及軀體相關(guān)的輪廓及空間等信息,還反映了對軀體姿勢表達(dá)的動作和情緒信息之間的識別。以往面孔和軀體知覺的研究認(rèn)為 N170對刺激的輪廓和構(gòu)型信息敏感(Stekelenburg & de Gelder, 2004; de Gelder, de Borst, & Watson, 2015),不同軀體的姿態(tài)和動作的外形及輪廓特征并不相同, 但并未見軀體姿態(tài)和動作對 N170的調(diào)節(jié)作用, 因此有必要進(jìn)一步探討表達(dá)不同情緒信號的動態(tài)軀體姿態(tài)和動作線索對 N170的影響是否存在差異。此外, 來自情緒面孔和軀體的研究顯示N170似乎并不受自上而下或目標(biāo)驅(qū)動注意控制的影響, 但自上而下或目標(biāo)驅(qū)動注意控制是否會影響 N190?如果存在影響, 那所涉及的神經(jīng)基礎(chǔ)又是什么?并且軀體知覺的N170與N190之間的關(guān)系也有待進(jìn)一步澄清, 比如同一研究中如何區(qū)分 N170與N190?
再次, 有關(guān)軀體知覺神經(jīng)基礎(chǔ)的研究發(fā)現(xiàn),EBA與 FBA在軀體知覺中的作用并不相同(de Gelder & de Borst, 2015)。采用溯源分析和MEG技術(shù)的研究表明, EBA可能與早期視覺編碼有關(guān),參與軀體的外形、情緒及運(yùn)動信息的編碼。但是,FBA在軀體知覺過程中的作用, 以及FBA是否受軀體的外形、情緒及運(yùn)動信息的調(diào)節(jié)等問題尚不明晰。此外, 研究者對 EBA與 FBA在軀體知覺中的先后作用(陳麗等, 2015; Meeren et al., 2013)也存在分歧, 因此 EBA與 FBA在認(rèn)知過程中的功能聯(lián)系也需要進(jìn)一步明確。
最后, 目前軀體表情知覺過程的研究更多采用與威脅有關(guān)的負(fù)性情緒, 如恐懼和憤怒表情,個(gè)別研究涉及高興表情, 鮮有研究考察悲傷、厭惡及驚訝表情的ERP成分。高興、悲傷、厭惡、驚訝情緒軀體刺激的認(rèn)知過程又是怎樣的?這些情緒的 EPN、P3及 LPC成分差有無差異?這些問題都有待于進(jìn)一步探究。
陳麗, 李偉霞, 張燁, 張慶林. (2015). 軀體知覺的認(rèn)知神經(jīng)機(jī)制.心理科學(xué),38(1), 85–92.
丁小斌, 康鐵君, 趙鑫. (2017). 情緒識別研究中被“冷落”的線索: 軀體表情加工的特點(diǎn)、神經(jīng)基礎(chǔ)及加工機(jī)制.心理科學(xué),40(5), 1084–1090.
方平, 李洋, 姜媛. (2009). 情緒軀體語言研究進(jìn)展.心理科學(xué), 32(5), 1155–1158.
何振宏, 趙婷, 張丹丹. (2016). 正立和倒立的威脅性身體表情的識別.心理科學(xué), 39(1), 158–165.
王麗麗, 賈麗娜, 羅躍嘉. (2016). 情緒自動化加工的證據(jù)與爭議.心理科學(xué)進(jìn)展,24(8), 1185–1197.
俠牧, 李雪榴, 葉春, 李紅. (2014). 面部表情加工的 ERP成分.心理科學(xué)進(jìn)展, 22(10), 1556–1563.
張丹丹, 趙婷, 柳昀哲, 陳玉明. (2015). 恐懼情緒面孔和身體姿勢加工的比較: 事件相關(guān)電位研究.心理學(xué)報(bào),47(8), 963–970.
Gazzaniga, M. S., Lvry, R. B., & Mangun, G. R. (2013).認(rèn)知神經(jīng)科學(xué): 關(guān)于心智的生物學(xué)(周曉林, 高定國等譯, 3版). 北京: 輕工業(yè)出版社.
Adolphs, R. (2002). Recognizing emotion from facial expressions:Psychological and neurological mechanisms.Behavioral and Cognitive Neuroscience Reviews, 1(1), 21–62.
Ales, J. M., Yates, J. L., & Norcia, A. M. (2010). V1 is not uniquely identified by polarity reversals of responses to upper and lower visual field stimuli.NeuroImage,52(4),1401–1409.
Avenanti, A., Annella, L., Candidi, M., Urgesi, C., & Aglioti,S. M. (2013a). Compensatory plasticity in the action observation network: Virtual lesions of STS enhance anticipatory simulation of seen actions.Cerebral Cortex,23(3), 570–580.
Avenanti, A., Candidi, M., & Urgesi, C. (2013b). Vicarious motor activation during action perception: Beyond correlational evidence.Frontiers in Human Neuroscience,7(4), 185–192.
Aviezer, H., Trope, Y., & Todorov, A. (2012). Body cues, not facial expressions, discriminate between intense positive and negative emotions.Science,338(6111), 1225–1229.
Borhani, K., Borgomaneri, S., Làdavas, E. & Bertini, C.(2016). The effect of alexithymia on early visual processing of emotional body postures.Biological Psychology, 115, 1–8.
Borhani, K., Làdavas, E., Maier, M. E., Avenanti, A. &Bertini, C. (2015). Emotional and movement-related body postures modulate visual processing.Social Cognitive and Affective Neuroscience, 10(8), 1092–1101.
Borgomaneri, S., Gazzola, V., & Avenanti, A. (2012). Motor mapping of implied actions during perception of emotional body language.Brain Stimulation, 5(2), 70–76.
Borgomaneri, S., Gazzola, V., & Avenanti, A. (2015).Transcranial magnetic stimulation reveals two functionally distinct stages of motor cortex involvement during perception of emotional body language.Brain Structure and Function,220(5), 2765–2781.
Borgomaneri, S., Vitale, F., Gazzola, V., & Avenanti, A.(2015). Seeing fearful body language rapidly freezes the observer's motor cortex.Cortex,65, 232–245.
Calvo, M. G., & Beltrán, D. (2014). Brain lateralization of holistic versus analytic processing of emotional facial expressions.NeuroImage, 92(10), 237–247.
Campanella, S., Quinet, P., Bruyer, R., Crommelinck, M., &Guerit, J.-M. (2002). Categorical perception of happiness and fear facial expressions: An ERP study.Journal of Cognitive Neuroscience,14(2), 210–227.
Chen, X., Pan, Z., Wang, P., Yang, X., Liu, P., You, X., &Yuan J. (2016). The integration of facial and vocal cues during emotional change perception: EEG markers.Social Cognitive and Affective Neuroscience,11(7), 1152–1161.
de Gelder, B. (2006). Towards the Neurobiology of Emotional Body Language.Nature Review Neuroscience, 7(3), 242–249.
de Gelder B., & de Borst A. W. (2015). Body perception. In:A. W. Toga (Ed.),Brain mapping: An encyclopedic reference(pp. 107–114). Amsterdam: Elsevier.
de Gelder, B., de Borst, A. W., & Watson, R. (2015). The perception of emotion in body expressions.Wiley Interdisciplinary Reviews: Cognitive Science,6(2), 149–158.
de Gelder, B., Hortensius, R., & Tamietto, M. (2012). Attention and awareness each influence amygdala activity for dynamic bodily expressions—a short review.Frontiers in Integrative Neuroscience,6, 54–63.
de Gelder, B., Snyder, J., Greve, D., Gerard, G., & Hadjikhani, N.(2004). Fear fosters flight: A mechanism for fear contagion when perceiving emotion expressed by a whole body.Proceedings of the National Academy of Science of the United States of America,101(47), 16701–16706.
Downing, P. E., & Peelen, M. V. (2011). The role of occipitotemporal body-selective regions in person perception.Cognitive Neuroscience,2(3–4), 186–203.
Downing, P. E., & Peelen, M. V. (2016). Body selectivity in occipitotemporal cortex: Causal evidence.Neuropsychologia,83, 138–148.
Eimer, M. (2000). Effects of face inversion on the structural encoding and recognition of faces: Evidence from eventrelated brain potentials.Cognitive Brain Research,10(1–2),145–158.
Eimer, M., Holmes, A., & McGlone, F. P. (2003). The role of spatial attention in the processing of facial expression: An ERP study of rapid brain responses to six basic emotions.Cognitive, Affective, & Behavioral Neuroscience,3(2),97–110.
Feuerriegel, D., Churches, O., Hofmann, J., & Keage, H. A.D. (2015). The N170 and face perception in psychiatric and neurological disorders: A systematic review.Clinical Neurophysiology,126(6), 1141–1158.
Flaisch, T., H?cker, F., Renner, B., & Schupp, H. T. (2011).Emotion and the processing of symbolic gestures: an event-related brain potential study.Social Cognitive and Affective Neuroscience, 6(1), 109–118.
Flaisch, T., & Schupp, H. T. (2013). Tracing the time course of emotion perception: The impact of stimulus physics and semantics on gesture processing.Social Cognitive and Affective Neuroscience,8(7), 820–827.
Flaisch, T., Schupp, H. T., Renner, B., & Jungh?fer, M.(2009). Neural systems of visual attention responding to emotional gestures.NeuroImage,45(4), 1339–1346.
Foley, E., Rippon, G., Thai, N. J., Longe, O., & Senior, C.(2011). Dynamic facial expressions evoke distinct activation in the face perception network: A connectivity analysis study.Journal of Cognitive Neuroscience,24(2), 507–520.
Gliga, T., & Dehaene-Lambertz, G. (2005). Structural encoding of body and face in human infants and adults.Journal of Cognitive Neuroscience,17(8), 1328–1340.
Gu, Y. Y., Mai, X. Q., & Luo, Y.-J. (2013). Do bodily expressions compete with facial expressions? Time course of integration of emotional signals from the face and the body.PLoS One,8(7), e66762.
Hadjikhani, N., & de Gelder, B. (2003). Seeing fearful body expressions activates the fusiform cortex and amygdala.Current Biology,13(24), 2201–2205.
Hietanen, J. K., & Astikainen, P. (2013). N170 response to facial expressions is modulated by the affective congruency between the emotional expression and preceding affective picture.Biological Psychology, 92(2), 114–124.
Hietanen, J. K., Kirjavainen, I., & Nummenmaa, L. (2014).Additive effects of affective arousal and top-down attention on the event-related brain responses to human bodies.Biological Psychology,103, 167–175.
Ishizu, T., Amemiya, K., Yumoto, M., & Kojima, S. (2010).Magnetoencephalographic study of the neural responses in body perception.Neuroscience Letters,481(1), 36–40.
Lu, Y., Zhang, W.-N., Hu, W., & Luo, Y.-J. (2011). Understanding the subliminal affective priming effect of facial stimuli:An ERP study.Neuroscience Letters,502(3), 182–185.
Luo, Q., Holroyd, T., Jones, M., Hendler, T., & Blair, J.(2007). Neural dynamics for facial threat processing as revealed by gamma band synchronization using MEG.NeuroImage, 34(2), 839–847
Luo, Q., Holroyd, T., Majestic, C., Cheng, X., Schechter, J.,& Blair, R. J. (2010). Emotional automaticity is a matter of timing.Journal of Neuroscience, 30(17), 5825–5829.
Luo, W. B., Feng, W. F., He, W. Q., Wang, N.- Y., & Luo, Y.-J.(2010). Three stages of facial expression processing: ERP study with rapid serial visual presentation.NeuroImage,49(2), 1857–1867.
Joyce, C., & Rossion, B. (2005). The face-sensitive N170 and VPP components manifest the same brain processes:The effect of reference electrode site.Clinical Neurophysiology,116(11), 2613–2631.
Meeren, H. K. M., de Gelder, B., Ahlfors, S. P., H?m?l?inen,M. S., & Hadjikhani, N. (2013). Different cortical dynamics in face and body perception: An MEG study.PLoS One,8(9), e71408.
Meeren, H. K. M., Hadjikhani, N., Ahlfors, S. P., H?m?l?inen,M. S., & de Gelder, B. (2016). Early preferential responses to fear stimuli in human right dorsal visual stream-A Meg Study.Scientific Report,6, 24831.
Meeren, H. K. M., van Heijnsbergen, C. C. R. J., & de Gelder, B. (2005). Rapid perceptual integration of facial expression and emotional body language.Proceedings of the National Academy of Sciences of the United States of America,102(45), 16518–16523.
Minnebusch, D. A., & Daum, I. (2009). Neuropsychological mechanisms of visual face and body perception.Neuroscience & Biobehavioral Reviews,33(7), 1133–1144.
Minnebusch, D. A., Keune, P. M., Suchan, B., & Daum, I.(2010). Gradual inversion affects the processing of human body shapes.NeuroImage,49(3), 2746–2755.
Morel, S., Beaucousin, V., Perrin, M., & George, N. (2012).Very early modulation of brain responses to neutral faces by a single prior association with an emotional context:Evidence from MEG.NeuroImage, 61(4), 1461–1470.
Moro, V., Urgesi, C., Pernigo, S., Lanteri, P., Pazzaglia, M.,& Aglioti, S. M. (2008). The neural basis of body form and body action agnosia.Neuron,60(2), 235?246.
Oliver, L. D., Mao, A., & Mitchell, D. G. V. (2014). “Blindsight”and subjective awareness of fearful faces: Inversion reverses the deficits in fear perception associated with core psychopathic traits.Cognition and Emotion, 29(7),1256–1277.
Pitcher, D., Walsh, V., Yovel, G., & Duchaine, B. (2007).TMS evidence for the involvement of the right occipital face area in early face processing.Current Biology,17(18),1568?1573.
Pichon, S., de Gelder, B., & Grèzes, J. (2008). Emotional modulation of visual and motor areas by dynamic body expressions of anger.Social Neuroscience,3(3?4), 199?212.
Pichon, S., de Gelder, B., & Grèzes, J. (2009). Two different faces of threat. Comparing the neural systems for recognizing fear and anger in dynamic body expressions.NeuroImage,47(4), 1873?1883.
Pourtois, G., Dan, E. S., Grandjean, D., Sander, D., & Vuilleumier, P.(2005). Enhanced extrastriate visual response to bandpass spatial frequency filtered fearful faces: Time course and topographic evoked-potentials mapping.Human Brain Mapping,26(1), 65–79.
Pourtois, G., Schettino, A., & Vuilleumier, P. (2013). Brain mechanisms for emotional influences on perception and attention: What is magic and what is not.Biological Psychology, 92, 492–512.
Recio, G., Wilhelm, O., Sommer, W., & Hildebrandt, A.(2017). Are event-related potentials to dynamic facial expressions of emotion related to individual differences in the accuracy of processing facial expressions and identity?Cognitive, Affective, & Behavioral Neuroscience,17(2),364–380.
Righart, R., & de Gelder, B. (2007). Impaired face and body perception in developmental prosopagnosia.Proceedings of the National Academy of Sciences of the United States of America,104(43), 17234–17238.
Righart, R, & de Gelder, B. (2008). Rapid influence of emotional scenes on encoding of facial expressions: An ERP study.Social Cognitive and Affective Neuroscience,3(3), 270–278.
Rossion, B., & Jacques, C. (2008). Does physical interstimulus variance account for early electrophysiological face sensitive responses in the human brain? Ten lessons on the N170.NeuroImage,39(4), 1959–1979.
Sadeh, B., Podlipsky, I., Zhdanov, A., & Yovel, G. (2010).Event-related potential and functional MRI measures of face-selectivity are highly correlated: A simultaneous ERP-fMRI investigation.Human Brain Mapping,31(10),1490–1501.
Sch?nwald, L. I., & Müller, M. M. (2014). Slow biasing of processing resources in early visual cortex is preceded by emotional cue extraction in emotion-attention competition.Human Brain Mapping, 35(4), 1477–1490.
Schupp, H. T., Flaisch, T., Stockburger, J., & Jungh?fer, M.(2006). Emotion and attention: Event-related brain potential studies.Progress in Brain Research, 156(2), 31–51.
Sinke, C. B. A., Sorger, B., Goebel, R., & de Gelder, B.(2010). Tease or threat? Judging social interactions from bodily expressions.NeuroImage, 49(2), 1717–1727.
Spapé, M. M., Harjunen, V., & Ravaja, N. (2017). Effects of touch on emotional face processing: A study of eventrelated potentials, facial EMG and cardiac activity.Biological Psychology,124, 1–10.
Stekelenburg, J. J., & de Gelder, B. (2004). The neural correlates of perceiving human bodies: An ERP study on the body-inversion effect.Neuroreport, 15(5), 777–780.
Tamietto, M., & de Gelder, B. (2010). Neural bases of the non-conscious perception of emotional signals.Nature Reviews Neuroscience,11(10), 697–709.
Taylor, J. C., Roberts, M. V., Downing, P. E., & Thierry, G.(2010). Functional characterisation of the extrastriate body area based on the N1 ERP component.Brain and Cognition, 73(3), 153–159.
Taylor, J. C., Wiggett, A. J., & Downing, P. E. (2010). fMRI–adaptation studies of viewpoint tuning in the extrastriate and fusiform body areas.Journal of Neurophysiology,103(3), 1467–1477.
Theeuwes, J. (2010). Top-down and bottom-up control of visual selection.Acta Psychologica,135(2), 77–99.
Thierry, G., Pegna, A. J., Dodds, C., Roberts, M., Basan, S.,& Downing, P. (2006). An event-related potential component sensitive to images of the human body.NeuroImage, 32(2),871–879.
Thom, N., Knight, J., Dishman, R., Sabatinelli, D., Johnson,D. C., & Clementz, B. (2014). Emotional scenes elicit more pronounced self-reported emotional experience and greater EPN and LPP modulation when compared to emotional faces.Cognitive, Affective, & Behavioral Neuroscience,14(2), 849–860.
van de Riet W. A., Grèzes, J., & de Gelder, B. (2009).Specific and common brain regions involved in the perception of faces and bodies and the representation of their emotional expressions.Social Neuroscience,4(2),101–120.
van den Stock, J., Tamietto, M., Sorger, B., Pichon, S.,Grézes, J., & de Gelder, B. (2011). Cortico-subcortical visual, somatosensory, and motor activations for perceiving dynamic whole-body emotional expressions with and without striate cortex (V1).Proceedings of the National Academy of Science of the United States of America,108(39), 16188–16193.
van den Stock, J., Vandenbulcke, M., Sinke, C. B. A., & de Gelder, B. (2012). Affective scenes influence fear perception of individual body expressions.Human Brain Mapping,35(2), 492–502.
van Heijnsbergen, C. C. R. J., Meeren, H. K. M., Grèzes, J.,& de Gelder, B. (2007). Rapid detection of fear in body expressions, an ERP study.Brain Research,1186(1), 233–241.
Williams, M. A., Morris, A. P., McGlone, F., Abbott, D. F., &Mattingley, J. B. (2004). Amygdala responses to fearful and happy facial expressions under conditions of binocular suppression.The Journal of Neuroscience,24(12), 2898–2904.
Yovel, G., & Kanwisher, N. (2005). The neural basis of the behavioral face-inversion effect.Current Biology,15(24),2256–2262
Zhu, X.-R., & Luo, Y.-J. (2012). Fearful faces evoke a larger C1 than happy faces in executive attention task: An eventrelated potential study.Neuroscience Letters,526(2), 118–121.