• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于名人面孔視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)*

    2015-02-05 22:18:24唐溢張智君曾玫媚黃可劉煒趙亞軍
    心理學(xué)報(bào) 2015年7期
    關(guān)鍵詞:語義特征實(shí)驗(yàn)

    唐溢張智君曾玫媚黃可劉煒趙亞軍

    (1浙江大學(xué)心理與行為科學(xué)系,杭州310028)(2云南民族大學(xué)教育學(xué)院,昆明650504)(3西南民族大學(xué)社會(huì)學(xué)與心理學(xué)學(xué)院,成都610041)

    1 前言

    在日常生活中,人類除了加工事物的視覺特征(如顏色和形狀等)和語義信息(如名稱)外,還對(duì)事物間的時(shí)空規(guī)律(如時(shí)間順序或空間位置信息)特別敏感。例如,當(dāng)我們對(duì)一個(gè)新環(huán)境(如陌生的超市或城市)進(jìn)行短期的熟悉后,就能自動(dòng)習(xí)得場(chǎng)景中事物間的時(shí)空關(guān)系。有研究者認(rèn)為,人們之所以能夠自動(dòng)加工場(chǎng)景中的規(guī)律信息,是因?yàn)榻y(tǒng)計(jì)學(xué)習(xí)(statistical learning)能力在其中發(fā)揮了重要的作用(Turk-Browne,Scholl,Chun,&Johnson,2009)。

    統(tǒng)計(jì)學(xué)習(xí)就是個(gè)體自覺地運(yùn)算刺激間的轉(zhuǎn)接概率(transitional probabilities,TP)掌握統(tǒng)計(jì)規(guī)律的過程(Fiser&Aslin,2001)。該概念最初由Saffran,Aslin和Newport(1996)在研究嬰兒的語言習(xí)得時(shí)提出,他們給嬰兒呈現(xiàn)由無意義音節(jié)組成的刺激序列。這些音節(jié)每三個(gè)構(gòu)成一個(gè)三聯(lián)體(triplet),三聯(lián)體內(nèi)每個(gè)音節(jié)的時(shí)間順序固定不變,而各個(gè)三聯(lián)體之間的時(shí)間順序變化(如pa-bi-ku/go-la-tu/da-ro-pi/pabi-ku/da-ro-pi…)。更具體地說,在整個(gè)序列中,每個(gè)音節(jié)出現(xiàn)的頻次相同,而刺激之間的轉(zhuǎn)接概率不同。轉(zhuǎn)接概率的運(yùn)算方式為TP=P(XY)/P(X),其中X和Y為刺激元素,P(XY)為整個(gè)刺激序列中XY組合出現(xiàn)的頻率,P(X)為X出現(xiàn)的頻率(Miller&Selfridge,1950),即三聯(lián)體內(nèi)部元素間的轉(zhuǎn)接概率為1,而三聯(lián)體之間元素的轉(zhuǎn)接概率小于1。結(jié)果發(fā)現(xiàn),在兩分多鐘的學(xué)習(xí)(聽覺呈現(xiàn))后,嬰兒能明顯地分辨出呈現(xiàn)過的三聯(lián)體(如pa-bi-ku)與未呈現(xiàn)過的三聯(lián)體(如pa-la-pi)或偶爾呈現(xiàn)的三聯(lián)體(如bi-ku-da)。他們認(rèn)為,嬰兒是通過“統(tǒng)計(jì)運(yùn)算”(statistical computation)音節(jié)間的轉(zhuǎn)接概率而習(xí)得語言規(guī)律的(Saffran et al.,1996)。隨后,一些研究者在成人的視覺通道中也發(fā)現(xiàn)了類似的統(tǒng)計(jì)學(xué)習(xí)能力(Fiser&Aslin,2001,2002),并將其稱為“視覺統(tǒng)計(jì)學(xué)習(xí)”(visual statistical learning,VSL)。他們給被試呈現(xiàn)圖形序列,該序列內(nèi)的各個(gè)圖片在空間位置(Fiser&Aslin,2001)或時(shí)間順序(Fiser&Aslin,2002)上隱含統(tǒng)計(jì)規(guī)律,但被試事先并不知道該規(guī)律。經(jīng)過一定時(shí)間的熟悉后,要求被試完成二選一迫選任務(wù),即每次先后呈現(xiàn)兩個(gè)結(jié)構(gòu)(如三聯(lián)體),其中一個(gè)為熟悉結(jié)構(gòu),另一個(gè)為熟悉元素組成的偽結(jié)構(gòu),要求被試確定哪個(gè)結(jié)構(gòu)更熟悉,即在熟悉階段出現(xiàn)過。結(jié)果顯示,被試對(duì)熟悉結(jié)構(gòu)的熟悉性判斷顯著高于偽結(jié)構(gòu)。

    以往研究發(fā)現(xiàn),這種統(tǒng)計(jì)學(xué)習(xí)機(jī)制在知覺和認(rèn)知技能中廣泛存在,如因果結(jié)構(gòu)知覺(Sobel,Tenenbaum,&Gopnik,2004)、動(dòng)作學(xué)習(xí)(Baldwin,Anderrson,Saffran,&Meyer,2008)、視覺加工(Brady&Oliva,2008;Fiser&Aslin,2001,2002;Kirkham,Slemmer,&Johnson,2002;Yuille&Kersten,2006)和語言學(xué)習(xí)(Conway,Bauernschmidt,Huang,&Pisoni,2010;Goldwater,Griffiths,&Johnson,2009)。另外,被試在統(tǒng)計(jì)學(xué)習(xí)過程中并沒有意識(shí)到材料之間存在統(tǒng)計(jì)結(jié)構(gòu)(Brady&Oliva,2008;Turk-Browne,Junge,&Scholl,2005),即他們只能從肯定例證(positive instances)中進(jìn)行學(xué)習(xí),而不可能采用分析加工或假設(shè)驗(yàn)證的策略(Perruchet&Pacton,2006)?;诖?研究者認(rèn)為統(tǒng)計(jì)學(xué)習(xí)具有自動(dòng)化(Fiser&Aslin,2001,2002;Saffran et al.,1996;Turk-Browne et al.,2005)和無意識(shí)(Fiser&Aslin,2001)等特點(diǎn)。

    由于內(nèi)隱學(xué)習(xí)(implicit learning)和統(tǒng)計(jì)學(xué)習(xí)范式均不告知被試學(xué)習(xí)任務(wù),即內(nèi)隱學(xué)習(xí)也具有無意識(shí)特點(diǎn)(Willingham,Nissen,&Bullemer,1989),因此,有研究者認(rèn)為,統(tǒng)計(jì)學(xué)習(xí)和內(nèi)隱學(xué)習(xí)是一種現(xiàn)象的兩種不同形式(Perruchet&Pacton,2006)。甚至有研究者直接使用內(nèi)隱統(tǒng)計(jì)學(xué)習(xí)(implicit statistical learning)概念來統(tǒng)和它們(Conway&Christiansen,2006)。不過,也有研究者認(rèn)為,被試在內(nèi)隱學(xué)習(xí)范式下習(xí)得的是規(guī)則(rule),而這種規(guī)則與具體刺激無關(guān)(Marcus,Vijayan,Bandi Rao,&Vishton,1999)。如果該假設(shè)成立,則內(nèi)隱學(xué)習(xí)與統(tǒng)計(jì)學(xué)習(xí)是不同的現(xiàn)象,因?yàn)榻y(tǒng)計(jì)學(xué)習(xí)是被試通過統(tǒng)計(jì)運(yùn)算刺激之間轉(zhuǎn)接概率來習(xí)得刺激間的統(tǒng)計(jì)規(guī)律關(guān)系,轉(zhuǎn)接概率與每個(gè)刺激直接相關(guān)。

    對(duì)時(shí)間順序結(jié)構(gòu)的視覺統(tǒng)計(jì)學(xué)習(xí)能力非常重要,它有利于人們掌握事物發(fā)生的順序規(guī)律。近年來,許多研究者對(duì)個(gè)體在視覺統(tǒng)計(jì)學(xué)習(xí)中能基于哪些特征進(jìn)行統(tǒng)計(jì)運(yùn)算非常關(guān)注,結(jié)果發(fā)現(xiàn)人類不僅能基于視覺特征(Fiser&Aslin,2002;Turk-Browne,Isola,Scholl,&Treat,2008;Turk-Browne et al.,2005),還能基于抽象語義信息(Brady&Oliva,2008;Otsuka,Nishiyama,Nakahara,&Kawaguchi,2013)加工時(shí)間順序結(jié)構(gòu)。不過,基于這些特征對(duì)時(shí)間順序結(jié)構(gòu)的視覺統(tǒng)計(jì)學(xué)習(xí)效果到底是精確的(specific),還是靈活的(flexible),以往的研究結(jié)果并不一致(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。也就是說,在視覺統(tǒng)計(jì)學(xué)習(xí)中,被試能基于哪些特征對(duì)統(tǒng)計(jì)規(guī)律進(jìn)行何種程度的加工,依然是關(guān)注的焦點(diǎn)。

    有研究者認(rèn)為,個(gè)體的視覺統(tǒng)計(jì)學(xué)習(xí)是基于客體發(fā)生的,視覺特征信息是否起作用取決于個(gè)體如何定義“客體”(Turk-Browne et al.,2008)。他們給被試呈現(xiàn)帶有顏色的隱含時(shí)間順序結(jié)構(gòu)的無意義圖形序列(如A-B-C),要求被試在被動(dòng)觀看后完成二選一迫選任務(wù),即判斷(A-B-C vs.A-E-I)哪一個(gè)在熟悉階段出現(xiàn)過。結(jié)果發(fā)現(xiàn):當(dāng)圖形的顏色在測(cè)試階段與熟悉階段中保持一致時(shí),被試表現(xiàn)出明顯的視覺統(tǒng)計(jì)學(xué)習(xí)效果,而當(dāng)測(cè)試階段圖形的顏色變?yōu)閱紊?即只保留形狀)或只呈現(xiàn)顏色塊(即消除形狀)時(shí),視覺統(tǒng)計(jì)學(xué)習(xí)的效果變?nèi)趸蛳?當(dāng)圖形某一視覺特征(顏色或形狀)的變化在熟悉階段具有規(guī)律性,且測(cè)試階段只對(duì)該視覺特征進(jìn)行測(cè)試時(shí),視覺統(tǒng)計(jì)學(xué)習(xí)效果又重新出現(xiàn)(Turk-Browne et al.,2008)。

    另外,有研究者認(rèn)為,個(gè)體還可以基于類別(語義)信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)(Brady&Oliva,2008)。他們采用自然場(chǎng)景(如森林、建筑、客廳等)探討了個(gè)體是否可以基于類別(語義)信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。在熟悉階段,給被試呈現(xiàn)1000張圖片,每張圖片呈現(xiàn)300 ms,圖片之間的間隔700 ms,要求被試探測(cè)重復(fù)出現(xiàn)的圖片(無關(guān)任務(wù))。在測(cè)試階段,要求被試完成圖片三聯(lián)體二選一迫選任務(wù)。與先前的實(shí)驗(yàn)不同,該實(shí)驗(yàn)中每個(gè)三聯(lián)體內(nèi)部固定位置所呈現(xiàn)的圖片屬于某一類客體(如橋梁,包括水泥結(jié)構(gòu)、鋼材結(jié)構(gòu)、木質(zhì)結(jié)構(gòu)等),而非特定客體。結(jié)果顯示,被試能以類別信息判斷三聯(lián)體的熟悉性,表明個(gè)體在熟悉階段能根據(jù)抽象的語義信息來加工時(shí)間順序結(jié)構(gòu),即被試能基于類別(語義)信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)(Brady&Oliva,2008)。但是,該研究不能排除被試的類別統(tǒng)計(jì)學(xué)習(xí)是基于同類場(chǎng)景中固有特征的可能性。對(duì)此,有研究者在熟悉階段呈現(xiàn)客體圖片,而在測(cè)試階段呈現(xiàn)客體圖片或客體名稱。結(jié)果發(fā)現(xiàn),被試對(duì)視覺特征(客體圖片)順序三聯(lián)體的熟悉性判斷均顯著高于隨機(jī)水平,對(duì)視覺特征倒序三聯(lián)體的熟悉性判斷為隨機(jī)水平,而對(duì)客體語義信息(客體名稱)順序三聯(lián)體和倒序三聯(lián)體的熟悉性判斷均顯著高于隨機(jī)水平。根據(jù)這一結(jié)果,他們認(rèn)為,對(duì)客體視覺特征和語義信息的加工是兩個(gè)平行的過程:個(gè)體在提取視覺特征時(shí)間順序的同時(shí),形成了不具有時(shí)間規(guī)律信息的語義組塊(Otsuka et al.,2013)。

    以往研究者一般采用倒序三聯(lián)體測(cè)試方式來檢驗(yàn)視覺統(tǒng)計(jì)學(xué)習(xí)的靈活性(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。他們?cè)谑煜るA段給被試呈現(xiàn)隱含時(shí)間順序結(jié)構(gòu)(如A-B-C)的刺激序列,而在測(cè)試階段分別呈現(xiàn)順序三聯(lián)體(A-B-C vs.A-E-I)和倒序三聯(lián)體(C-B-A vs.IEA),讓被試分別做熟悉性判斷。他們認(rèn)為,順序三聯(lián)體測(cè)試反映被試對(duì)轉(zhuǎn)換概率的統(tǒng)計(jì)學(xué)習(xí),而倒序三聯(lián)體測(cè)試則反映被試基于該具體特征表征時(shí)間順序結(jié)構(gòu)的靈活性。也就是說,如果被試對(duì)順序三聯(lián)體(如A-B-C)的熟悉性判斷顯著高于隨機(jī)水平,而對(duì)倒序三聯(lián)體(如C-B-A)的熟悉性判斷為隨機(jī)水平,則表明被試基于該特征的視覺統(tǒng)計(jì)學(xué)習(xí)是精細(xì)的;而若對(duì)倒序三聯(lián)體(如C-B-A)的熟悉性判斷也顯著高于隨機(jī)水平,則表明被試基于該特征的視覺統(tǒng)計(jì)學(xué)習(xí)具有靈活性,即被試基于該特征的統(tǒng)計(jì)運(yùn)算結(jié)果并不是基于精確的時(shí)間順序信息進(jìn)行的(Turk-Browne&Scholl,2009)。

    有研究發(fā)現(xiàn),被試基于視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果的靈活性會(huì)受其他因素的影響。例如,Turk-Browne和Scholl(2009)發(fā)現(xiàn),如果在熟悉階段呈現(xiàn)隱含時(shí)間順序結(jié)構(gòu)(如A-B-C)的無意義圖形序列,則被試在測(cè)試階段會(huì)將順序三聯(lián)體(如A-B-C)和倒序三聯(lián)體(如C-B-A)均顯著判斷為熟悉三聯(lián)體,但當(dāng)測(cè)試情景改為比較順序三聯(lián)體和倒序三聯(lián)體(A-B-C vs.C-B-A)的熟悉性時(shí),則被試會(huì)顯著地將順序三聯(lián)體判斷為熟悉三聯(lián)體。該現(xiàn)象也存在于基于客體語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)中(Otsuka et al.,2013)。這表明,被試基于視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)存在靈活性,而這種靈活性受測(cè)試情景的影響。但是,Otsuka等(2013)卻發(fā)現(xiàn),當(dāng)刺激材料包含語義信息的場(chǎng)景和類別客體時(shí),被試基于視覺特征的統(tǒng)計(jì)運(yùn)算表現(xiàn)出精確加工的特點(diǎn),即抽象語義信息會(huì)易化基于視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)效果。他們進(jìn)一步提出,個(gè)體之所以表現(xiàn)出靈活的視覺統(tǒng)計(jì)學(xué)習(xí)效果,是對(duì)統(tǒng)計(jì)結(jié)構(gòu)進(jìn)行組塊加工(chunk)的結(jié)果,因?yàn)樵诮M塊中元素間的時(shí)間順序信息或空間位置信息具有不確定性(Otsuka et al.,2013)。

    Otsuka等(2013)所使用的實(shí)驗(yàn)材料為類別語義信息(類別名稱,common name),與之相對(duì)應(yīng)的是特定語義信息(特定名稱,proper name)(比如,建筑物名,人名等)。有研究表明,個(gè)體對(duì)兩類語義信息的加工是分離的過程(Martins&Farrajota,2006),但也有研究發(fā)現(xiàn)人類對(duì)兩者的加工存在關(guān)聯(lián)(Joassin,Meert,Campanella,&Bruyer,2007)。Otsuka等人(2013)考察了基于類別語義信息的視覺統(tǒng)計(jì)學(xué)效果,而基于特定語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果到底是如何,還并未有相關(guān)的研究。

    基于上述分析,本研究將進(jìn)一步檢驗(yàn)視覺特征與語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)在多大程度上能夠精確加工時(shí)間順序結(jié)構(gòu)。

    以上這些研究考察了人類對(duì)非社交主體(如無意義圖形、場(chǎng)景、類別客體等)的統(tǒng)計(jì)運(yùn)算能力,而對(duì)社交主體(如人臉面孔)的統(tǒng)計(jì)運(yùn)算能力到底如何,目前并未有直接的研究。作為社會(huì)性動(dòng)物,人類與同類打交道的機(jī)會(huì)最頻繁,很多時(shí)候需要在非面對(duì)面的情況下掌握其他個(gè)體的信息,因此擁有自動(dòng)將人臉面孔與其特定名稱聯(lián)系起來的能力(Alvarez,Novo,&Fernandez,2009)。人類對(duì)面孔的加工也比類別客體加工更深刻,如面孔(尤其是名人)比客體更能吸引人類的注意(Langton,Law,Burton,&Scweinberger,2008;Theeuwes&van der Stigchel,2006)。ERPs研究表明,在視覺特征加工階段個(gè)體對(duì)面孔的加工比客體更精細(xì),能誘發(fā)更大的N170成分(Guillaumea et al.,2009)。個(gè)體對(duì)熟悉面孔的語義啟動(dòng)也比客體更充分,能誘發(fā)更顯著的N250成分(Pickering&Schweinberger,2003)。名人面孔會(huì)導(dǎo)致更活躍的N400(Saavedra,Iglesias,&Olivares,2010;Wiese&Schweinberger,2011;Rugg&Curran,2007;Germain-Mondona,Silvert,&Izaute,2011)和P600(Saavedra et al.,2010),而這些腦電成分主要與語義信息加工有關(guān)。以上研究表明,個(gè)體對(duì)人臉面孔(特別是名人面孔)本身及其語義信息的加工更精細(xì)。但是,也有研究表明,被試加工特定名稱(如面孔名字)比類別名稱(如袋鼠等)更困難(Ahmed,Arnold,Thompson,Graham,&Hodges,2008;Bredart,1993;Evrard,2002;Semenza,2006),如Evrard(2002)的研究發(fā)現(xiàn),被試命名面孔名字時(shí)需要更長的時(shí)間,他認(rèn)為這是因?yàn)槊婵酌中枰鼜?fù)雜和更多的認(rèn)知資源。因此,與基于客體語義信息的統(tǒng)計(jì)加工相比,基于人類面孔語義信息的統(tǒng)計(jì)加工可能存在兩種情況:精確的統(tǒng)計(jì)運(yùn)算或組塊的統(tǒng)計(jì)運(yùn)算。

    鑒于此,本研究將采用人臉面孔和面孔名字作為實(shí)驗(yàn)材料,考察被試基于面孔視覺特征與語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)。

    需要指出的是,先前研究發(fā)現(xiàn),當(dāng)被試基于同一實(shí)驗(yàn)材料的不同特征進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)時(shí),其視覺統(tǒng)計(jì)學(xué)習(xí)效果往往不同(Otsuka et al.,2013;Turk-Browne et al.,2008)。但是,這些研究并沒有探討被試基于這些特征進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的時(shí)間特點(diǎn)及其差異。研究表明,負(fù)責(zé)面孔視覺特征(Sergent,Ohta,&McDonald,1992;Kanwisher,McDermott,&Chun,1997;Campanella et al.,2001)及其名字(Damasio,Grabowski,Tranel,Hichwa,&Damasio,1996;Gorno-Tempini et al.,1998)加工的腦區(qū)是分離的。同時(shí),以往研究者采用ERPs技術(shù)對(duì)面孔加工的階段進(jìn)行了具體的分析(Alvarez et al.,2009),發(fā)現(xiàn)面孔語義加工發(fā)生在視覺特征加工的基礎(chǔ)之上(Bruce&Young,1986;Burton,Bruce,&Johnson,1990),面孔視覺特征加工在刺激呈現(xiàn)170~200 ms左右就已完成(Bentin&Deouell,2000),而面孔語義信息加工則需要更長的時(shí)間。有研究者認(rèn)為,面孔語義信息的加工發(fā)生于450~650 ms(N400成分)(Huddy,Schweinberger,Jentzsch,&Burton,2003);也有研究者發(fā)現(xiàn),被試對(duì)面孔語義信息的加工發(fā)生于550~750 ms(Diaz,Lindin,Galdo-Alvarez,Facal,&Juncos-Rabadan,2007);Alvarez等人(2009)則認(rèn)為,面孔語義信息的加工發(fā)生于450~750 ms之間。

    因此,本研究還將通過調(diào)節(jié)面孔圖片的呈現(xiàn)時(shí)間,考察被試基于面孔視覺特征和語義信息進(jìn)行統(tǒng)計(jì)運(yùn)算的時(shí)間特征。

    總之,本研究以名人面孔為實(shí)驗(yàn)材料,采用語義測(cè)試(Otsuka et al.,2013)和倒序三聯(lián)體(Turk-Browne&Scholl,2009)測(cè)試的視覺統(tǒng)計(jì)實(shí)驗(yàn)范式,考察人類基于面孔視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的特點(diǎn)。另外,本研究還采用倒置面孔呈現(xiàn)范式,深入探究視覺統(tǒng)計(jì)學(xué)習(xí)中的面孔特性。以往研究表明,倒置會(huì)破壞面孔結(jié)構(gòu)信息的加工,而不會(huì)破壞特征信息的加工(Freire,Lee,&Symons,2000;Webster&MacLeod,2011)。因此,如果個(gè)體基于正立面孔與倒置面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)存在顯著差異,則說明基于視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)存在面孔特性,即基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)并非一般視覺特征的統(tǒng)計(jì)學(xué)習(xí);反之,則基于視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)不存在面孔特性。因此,本研究包含了以下5項(xiàng)實(shí)驗(yàn):實(shí)驗(yàn)1與實(shí)驗(yàn)2分別采用圖片和名字三聯(lián)體為測(cè)試材料,檢驗(yàn)人類是否能基于面孔語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí);實(shí)驗(yàn)3A和3B采用倒序三聯(lián)體(如C-B-A)測(cè)試方式進(jìn)一步探討基于名人面孔視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的靈活性,分析視覺統(tǒng)計(jì)學(xué)習(xí)中被試對(duì)面孔視覺特征和語義信息的加工特點(diǎn)。實(shí)驗(yàn)4A和4B則通過操縱圖片呈現(xiàn)時(shí)間(由實(shí)驗(yàn)3的1000 ms縮減到700 ms)考察個(gè)體基于面孔語義信息的統(tǒng)計(jì)加工過程是與語義加工同時(shí)發(fā)生,還是發(fā)生在語義信息加工之后,從而探討視覺統(tǒng)計(jì)學(xué)習(xí)中個(gè)體基于視覺特征和語義信息的統(tǒng)計(jì)規(guī)律提取機(jī)制。實(shí)驗(yàn)5在實(shí)驗(yàn)4的基礎(chǔ)上,采用倒置面孔呈現(xiàn)范式,驗(yàn)證基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)是否具有面孔特異性。綜合先前的研究成果,我們假設(shè):在實(shí)驗(yàn)1與實(shí)驗(yàn)2中,被試基于面孔視覺特征與語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果顯著,表現(xiàn)為對(duì)熟悉(視覺特征和語義信息)三聯(lián)體的熟悉性判斷都顯著高于隨機(jī)水平;在實(shí)驗(yàn)3A和3B中,被試基于面孔視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)均能精確加工時(shí)間順序結(jié)構(gòu),表現(xiàn)為對(duì)熟悉(視覺特征和語義信息)三聯(lián)體的熟悉性判斷都顯著高于隨機(jī)水平,而對(duì)倒序(視覺特征和語義信息)三聯(lián)體的熟悉性判斷都為隨機(jī)水平;在實(shí)驗(yàn)4A中,被試基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)不會(huì)受圖片呈現(xiàn)時(shí)間調(diào)整的影響,表現(xiàn)與實(shí)驗(yàn)3A相同,而在實(shí)驗(yàn)4B中,基于語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)能力減弱或消失,表現(xiàn)為對(duì)順序和倒序語義三聯(lián)體的熟悉性判斷均顯著高于隨機(jī)水平或者表現(xiàn)為隨機(jī)水平。在實(shí)驗(yàn)5中,被試基于正立面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果將顯著高于倒置面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)效果。

    2 實(shí)驗(yàn)1基于名人面孔的視覺統(tǒng)計(jì)學(xué)習(xí)

    探討個(gè)體是否能對(duì)名人面孔進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。

    2.1 方法

    2.1.1 被試

    15名某大學(xué)本科生或研究生(6名男生,9名女生)為被試,均沒有參加過其他相關(guān)實(shí)驗(yàn)。他們的年齡在19~24歲之間,均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實(shí)驗(yàn),實(shí)驗(yàn)結(jié)束后獲得學(xué)分或一定的報(bào)酬。

    2.1.2 裝置與材料

    實(shí)驗(yàn)裝置為一臺(tái)PentiumⅣPC電腦,Dell 17英寸純平顯示器,分辨率為1024×768,刷新率為85 Hz,屏幕背景為灰色。被試距離屏幕的距離為70 cm。

    實(shí)驗(yàn)材料為12張名人面孔,均來自網(wǎng)絡(luò)圖片。所有面孔的高度在6.56°~7.04°之間,寬度在4.92°~5.41°之間,呈現(xiàn)在屏幕中央,均進(jìn)行去色處理,直視被試。具體見圖1。

    圖1 實(shí)驗(yàn)1采用的材料(名人面孔及名字)

    2.1.3 設(shè)計(jì)與程序

    在實(shí)驗(yàn)開始之前,所有被試都需要完成名人面孔熟悉程度的測(cè)試,即在電腦屏幕中央呈現(xiàn)名人的面孔,要求被試快速說出面孔對(duì)應(yīng)的名字。如果被試不能一次性成功報(bào)告所有面孔的名字,則將不參與正式實(shí)驗(yàn)。

    正式實(shí)驗(yàn)與先前研究(Turk-Browne et al.,2008;Otsuka et al.,2013)相同,也包括兩個(gè)階段:熟悉階段與測(cè)試階段。

    熟悉階段:在屏幕中央呈現(xiàn)面孔圖片序列,每張面孔每次呈現(xiàn)300 ms,兩張面孔之間間隔700 ms。12張面孔組成4個(gè)三聯(lián)體,每個(gè)三聯(lián)體重復(fù)96次,總共呈現(xiàn)1152個(gè)面孔刺激。三聯(lián)體內(nèi)部的圖片位置固定,且順序總是一致的(如A-B-C,J-K-L)。4個(gè)三聯(lián)體在整個(gè)實(shí)驗(yàn)過程中隨機(jī)出現(xiàn)并遵循以下規(guī)則:同一三聯(lián)體不連續(xù)重復(fù)(如A-B-C-A-B-C)且兩個(gè)三聯(lián)體也不連續(xù)重復(fù)(如A-B-C-G-H-I-A-B-C-G-H-I)。在面孔呈現(xiàn)過程中,三聯(lián)體首或尾的圖片隨機(jī)插入重復(fù)圖片(如A-B-C-C-G-H-I或A-B-C-G-G-H-I),這樣的重復(fù)在整個(gè)過程中隨機(jī)出現(xiàn)96次,該操作不會(huì)影響三聯(lián)體結(jié)構(gòu)的完整,且有助于防止被試對(duì)三聯(lián)體結(jié)構(gòu)信息進(jìn)行外顯學(xué)習(xí)(Otsuka et al.,2013)。具體見圖2A。在熟悉階段,被試從事與學(xué)習(xí)無關(guān)的任務(wù),即準(zhǔn)確且快速地對(duì)重復(fù)出現(xiàn)的面孔進(jìn)行按鍵反應(yīng)。具體地說,當(dāng)后一面孔圖片與前一面孔圖片相同時(shí),按“空格”鍵進(jìn)行反應(yīng)。該任務(wù)可以很好地阻止被試對(duì)圖片的順序結(jié)構(gòu)進(jìn)行外顯學(xué)習(xí)(Turk-Browne et al.,2005)和被動(dòng)觀看(Brady&Oliva,2008)。需特別強(qiáng)調(diào)的是,在整個(gè)實(shí)驗(yàn)過程中都不會(huì)告訴被試與圖片呈現(xiàn)結(jié)構(gòu)有關(guān)的任何信息。此外,在正式實(shí)驗(yàn)(熟悉階段)開始之前,讓被試完成6個(gè)試次的重復(fù)探測(cè)任務(wù)作為練習(xí),練習(xí)所使用的實(shí)驗(yàn)材料不在正式實(shí)驗(yàn)中出現(xiàn)。熟悉階段大約持續(xù)20 min。

    圖2 實(shí)驗(yàn)1熟悉階段(A)和測(cè)試階段(B)的刺激示例(C為實(shí)驗(yàn)2測(cè)試階段的刺激)

    測(cè)試階段:在熟悉階段結(jié)束后,立即讓被試進(jìn)行二選一迫選測(cè)試。具體地說,先在屏幕中央呈現(xiàn)白色“+”(0.8°×0.8°),持續(xù)1000 ms,然后連續(xù)呈現(xiàn)兩個(gè)三聯(lián)體(1個(gè)試次),其中每個(gè)圖片的呈現(xiàn)時(shí)間為300 ms,兩個(gè)圖片之間的間隔為700 ms,兩個(gè)三聯(lián)體之間的間隔為1000 ms。在每個(gè)試次中,一個(gè)三聯(lián)體的圖片順序是熟悉階段出現(xiàn)過的(如A-B-C),另一個(gè)為偽三聯(lián)體,它的圖片來自熟悉階段的圖片,但不是出現(xiàn)過的三聯(lián)體(如A-E-I)。在6張圖片呈現(xiàn)后,屏幕中央出現(xiàn)一個(gè)小紅點(diǎn)(0.5°×0.5°),要求被試判斷兩個(gè)三聯(lián)體中哪一個(gè)是熟悉階段出現(xiàn)過的,如果是前一個(gè)三聯(lián)體,按數(shù)字“1”鍵,反之按“2”鍵,小紅點(diǎn)直到被試按鍵反應(yīng)后才會(huì)消失。具體見圖2B。每個(gè)三聯(lián)體(A-B-C,D-E-F,G-H-I,J-K-L)都與每個(gè)偽三聯(lián)體(A-E-I,D-H-L,G-K-C,J-B-F)匹配兩次,前后順序隨機(jī)平衡,總共測(cè)試32次。該階段大約持續(xù)5 min。

    將被試在測(cè)試階段判斷三聯(lián)體熟悉性的正確率作為視覺統(tǒng)計(jì)學(xué)習(xí)的指標(biāo)。

    在實(shí)驗(yàn)結(jié)束后,詢問被試是否知道實(shí)驗(yàn)?zāi)康募笆欠裨谑煜るA段探測(cè)到圖片呈現(xiàn)的規(guī)律。

    2.2 結(jié)果

    實(shí)驗(yàn)結(jié)果的統(tǒng)計(jì)指標(biāo)均參照Otsuka等人(2013)采用的方法進(jìn)行計(jì)算。

    熟悉階段的結(jié)果表明,被試對(duì)重復(fù)目標(biāo)的平均探測(cè)概率為94.06%(

    SE

    =1.14%)。這表明,被試能將注意集中到圖片重復(fù)探測(cè)任務(wù)上。事后詢問表明,被試不能報(bào)告出完整的三聯(lián)體和實(shí)驗(yàn)?zāi)康?。測(cè)試階段的結(jié)果為,被試對(duì)熟悉三聯(lián)體的熟悉性辨識(shí)率(72.29%)顯著高于隨機(jī)水平,

    t

    (14)=5.89,

    p

    <0.001,

    d

    =1.52,表明被試能明顯區(qū)分偽三聯(lián)體與熟悉三聯(lián)體。該結(jié)果與先前無意義圖形(Turk-Browne et al.,2005)、真實(shí)場(chǎng)景(如森林、建筑、客廳等)(Brady&Oliva,2008)及客體(Otsuka et al.,2013)的視覺統(tǒng)計(jì)學(xué)習(xí)研究一致,說明被試可以基于熟悉面孔進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。

    3 實(shí)驗(yàn)2基于名人面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)

    實(shí)驗(yàn)1的結(jié)果表明,被試可以基于熟悉面孔進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。但是,個(gè)體到底是基于面孔視覺特征信息還是基于語義信息(如名字)進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的,實(shí)驗(yàn)1并不能給出明確的答案。先前研究表明,個(gè)體不僅可以基于客體的視覺特征信息(如形狀)(Turk-Browne et al.,2008),也可以基于客體的語義信息(如類別)進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)(Brady&Oliva,2008;Otsuka et al.,2013)。因此,在實(shí)驗(yàn)2中,在熟悉階段仍呈現(xiàn)名人面孔,但在測(cè)試階段卻以與名人面孔對(duì)應(yīng)的真實(shí)名字作為測(cè)試材料(Otsuka et al.,2013),考察個(gè)體能否基于面孔語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。如果被試能基于名人面孔語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí),那么在測(cè)試階段將能區(qū)分名字熟悉三聯(lián)體(如A-B-C)與偽三聯(lián)體(如A-E-I)。

    3.1 方法

    3.1.1 被試

    15名某大學(xué)本科生或研究生(6名男生,9名女生)作為被試,均沒有參加過實(shí)驗(yàn)1。他們的年齡在18~24歲之間,均沒有參加過其他相關(guān)實(shí)驗(yàn)。他們均為右利手,視力或矯正視力正常,無色盲、色弱。他們均自愿參加實(shí)驗(yàn),實(shí)驗(yàn)結(jié)束后獲得學(xué)分或一定的報(bào)酬。

    3.1.2 材料

    熟悉階段完全與實(shí)驗(yàn)1相同,而測(cè)試階段的刺激變?yōu)榕c面孔對(duì)應(yīng)的人名(Otsuka et al.,2013)。名字最多三個(gè)漢字,字體為微軟雅黑(1.31°×1.31°),顏色為白色,字間距離為0.5°。名字的視角寬度和面孔寬度一致(圖2C)。

    3.1.3 設(shè)計(jì)與程序

    除測(cè)試階段的材料改為與面孔對(duì)應(yīng)的名字外,其他程序均與實(shí)驗(yàn)1相同。

    整個(gè)實(shí)驗(yàn)持續(xù)大約25 min。

    3.2 結(jié)果

    被試均成功完成熟悉階段的重復(fù)圖片探測(cè)任務(wù),重復(fù)目標(biāo)的平均探測(cè)概率為94.68%(

    SE

    =1.41%)。視覺統(tǒng)計(jì)學(xué)習(xí)的效果顯著,對(duì)熟悉三聯(lián)體的辨識(shí)率(62.08%)顯著高于隨機(jī)水平,

    t

    (14)=4.35,

    p

    <0.01,

    d

    =1.12。該結(jié)果與先前以客體為實(shí)驗(yàn)材料的實(shí)驗(yàn)結(jié)果一致(Otsuka et al.,2013),說明個(gè)體也能基于名人面孔的語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。

    4 實(shí)驗(yàn)3基于面孔視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的精確性

    實(shí)驗(yàn)1表明被試能夠基于名人面孔進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí),實(shí)驗(yàn)2則進(jìn)一步說明被試能夠基于名人面孔語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。Turk-Browne等人(2009)的研究表明,倒序三聯(lián)體(如C-B-A)的測(cè)試方式能有效地揭示被試基于某一特征對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行統(tǒng)計(jì)運(yùn)算的精確性。Otsuka等人(2013)采用該范式發(fā)現(xiàn),被試基于客體語義信息表征時(shí)間順序結(jié)構(gòu)時(shí)出現(xiàn)組塊現(xiàn)象(Otsuka et al.,2013)?;诖?實(shí)驗(yàn)3A與3B分別以面孔視覺特征和語義信息作為測(cè)試材料,利用順序和倒序三聯(lián)體相結(jié)合的測(cè)試方式(Turk-Browne et al.,2009),比較被試基于面孔視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)加工的特點(diǎn)。如果被試對(duì)順序視覺特征和順序語義三聯(lián)體(如A-B-C)的熟悉度判斷均顯著高于隨機(jī)水平(50%),而對(duì)倒序視覺特征和倒序語義三聯(lián)體(如C-B-A)的熟悉度判斷均呈隨機(jī)水平,則說明被試在視覺統(tǒng)計(jì)學(xué)習(xí)中能同時(shí)基于面孔視覺特征和語義信息精確地加工時(shí)間順序結(jié)構(gòu)。

    4.1 方法

    4.1.1 被試

    某大學(xué)本科生或研究生參與本實(shí)驗(yàn)。其中,實(shí)驗(yàn)3A共14名被試(5男,9女),年齡為19~26歲;實(shí)驗(yàn)3B共15名被試(7男,8女),年齡為18~26,均沒有參加過實(shí)驗(yàn)3A。他們均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實(shí)驗(yàn),實(shí)驗(yàn)結(jié)束后獲得學(xué)分或一定的報(bào)酬。

    4.1.2 材料

    除測(cè)試階段三聯(lián)體內(nèi)部圖片或名字的順序發(fā)生變化外,其余都分別與實(shí)驗(yàn)1或2相同。

    4.1.3 設(shè)計(jì)與程序

    熟悉階段與實(shí)驗(yàn)1相同。

    測(cè)試階段的三聯(lián)體內(nèi)部順序包括兩種情況:一半與熟悉階段一致(如A-B-C,D-E-F,G-H-I和J-K-L,見圖2B、2C),一半與熟悉階段相反(如C-B-A,F-E-D,I-H-G和L-K-J,見圖3)。為了平衡順序效應(yīng),與倒序三聯(lián)體匹配的偽三聯(lián)體也為倒序(如I-E-A,L-H-D,C-K-G和F-B-J)。每個(gè)三聯(lián)體(包括正序三聯(lián)體和倒序三聯(lián)體)分別與對(duì)應(yīng)的4個(gè)偽三聯(lián)體匹配一次,一共32個(gè)試次。具體示例見圖3。

    實(shí)驗(yàn)3A和實(shí)驗(yàn)3B均持續(xù)大約25 min。

    圖3 實(shí)驗(yàn)3熟悉階段(A)和測(cè)試階段倒序三聯(lián)體刺激示例(B視覺刺激、C語義刺激)

    4.2 結(jié)果

    被試能成功完成熟悉階段的重復(fù)圖片探測(cè)任務(wù)。其中,實(shí)驗(yàn)3A中重復(fù)目標(biāo)的平均探測(cè)概率為93.02%(

    SE

    =1.22%);實(shí)驗(yàn)3B中重復(fù)目標(biāo)的平均探測(cè)概率為94.32%(

    SE

    =1.40%)。實(shí)驗(yàn)3A中,被試對(duì)名人面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果顯著:在順序三聯(lián)體測(cè)試條件下,被試對(duì)熟悉三聯(lián)體的辨識(shí)率(75.00%)顯著高于隨機(jī)水平,

    t

    (13)=6.19,

    p

    <0.001,

    d

    =0.99,與實(shí)驗(yàn)1的結(jié)果無顯著差異,

    t

    (27)=–0.49,

    p

    >0.05,

    d

    =0.19;而在倒序三聯(lián)體測(cè)試條件下,被試對(duì)倒序三聯(lián)體的熟悉性辨識(shí)率(54.46%)為隨機(jī)水平,

    t

    (13)=1.51,

    p

    >0.05,

    d

    =0.40。實(shí)驗(yàn)3B的被試對(duì)面孔名字的視覺統(tǒng)計(jì)學(xué)習(xí)效果同樣顯著:在順序三聯(lián)體測(cè)試條件下,被試對(duì)熟悉三聯(lián)體的辨識(shí)率(66.25%)顯著高于隨機(jī)水平,

    t

    (14)=4.33,

    p

    <0.01,

    d

    =1.12,與實(shí)驗(yàn)2的結(jié)果也無差異,

    t

    (28)=0.89,

    p

    >0.05,

    d

    =0.34;而在倒序三聯(lián)體測(cè)試條件下,被試對(duì)倒序三聯(lián)體的熟悉性辨識(shí)率(49.58%)為隨機(jī)水平,

    t

    (14)=–0.19,

    p

    >0.05,

    d

    =1.15。

    具體結(jié)果的比較見圖4。

    圖4 實(shí)驗(yàn)1、實(shí)驗(yàn)2和實(shí)驗(yàn)3測(cè)試階段三聯(lián)體熟悉性判斷情況比較

    4.3 討論

    實(shí)驗(yàn)3結(jié)果支持被試能夠同時(shí)基于面孔視覺特征和語義信息進(jìn)行可靠的視覺統(tǒng)計(jì)學(xué)習(xí)的假設(shè)。以面孔圖片為測(cè)試材料的實(shí)驗(yàn)結(jié)果(實(shí)驗(yàn)3A)與先前關(guān)于客體的研究(Otsuka et al.,2013)一致,即被試能基于視覺特征精確地運(yùn)算面孔間的時(shí)間順序結(jié)構(gòu)。而以面孔語義信息為測(cè)試材料的實(shí)驗(yàn)結(jié)果(實(shí)驗(yàn)3B)則表明,個(gè)體也能精確地基于面孔語義信息對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行加工,這與Otsuka等人(2013)以客體語義信息為材料的研究結(jié)果不一致。這說明,雖然被試可基于刺激的視覺特征和語義信息對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行精確加工,但基于語義信息的統(tǒng)計(jì)加工會(huì)受刺激材料社會(huì)屬性的影響,即個(gè)體能精確加工基于面孔語義信息的時(shí)間順序結(jié)構(gòu)(實(shí)驗(yàn)3B),而對(duì)基于客體語義信息的時(shí)間順序結(jié)構(gòu)只能進(jìn)行組塊加工(Otsuka et al.,2013)。

    5 實(shí)驗(yàn)4基于面孔視覺特征與語義信息的統(tǒng)計(jì)運(yùn)算的差異

    實(shí)驗(yàn)3B的結(jié)果發(fā)現(xiàn),個(gè)體能夠基于面孔的語義信息精確加工時(shí)間順序結(jié)構(gòu),結(jié)合Otsuka等人(2013)的研究結(jié)果,提示在視覺統(tǒng)計(jì)學(xué)習(xí)中,被試對(duì)名人面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)更加深刻。

    同時(shí),Otsuka等人(2013)認(rèn)為,基于客體視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)是兩個(gè)獨(dú)立的過程,即對(duì)它們的時(shí)間順序信息加工存在差異。而實(shí)驗(yàn)3的結(jié)果卻表明,名人面孔視覺特征與語義信息之間的關(guān)系不同于客體,個(gè)體對(duì)名人面孔視覺特征與語義信息的加工可能并不是獨(dú)立進(jìn)行的。

    對(duì)此,實(shí)驗(yàn)4通過調(diào)整圖片呈現(xiàn)方式來探討視覺統(tǒng)計(jì)學(xué)習(xí)中名人面孔視覺特征與語義信息加工之間的關(guān)系。先前研究表明,面孔語義加工發(fā)生在視覺特征加工的基礎(chǔ)之上(Bruce&Young,1986;Burton et al.,1990),采用ERPs技術(shù)對(duì)面孔加工階段的分析發(fā)現(xiàn),面孔視覺特征加工在刺激呈現(xiàn)170~200 ms左右就已完成(Bentin&Deouell,2000),而面孔語義信息的加工時(shí)間因任務(wù)不同而發(fā)生變化,Huddy等人(2003)認(rèn)為面孔名字加工發(fā)生于450~550 ms之間,而Diaz等人(2007)的研究中則顯示面孔語義加工發(fā)生于550 ms之后,Alvarez等人(2009)則認(rèn)為,面孔語義信息的加工發(fā)生于450~750 ms之間。綜合來看,面孔語義信息加工與面孔特征加工之間的時(shí)間延遲大概為300 ms。基于此,我們將熟悉階段的圖片間隔時(shí)間由實(shí)驗(yàn)3的700 ms調(diào)整為400 ms,這種控制不僅可以考察基于面孔語義信息進(jìn)行統(tǒng)計(jì)運(yùn)算發(fā)生的時(shí)間條件,還能揭示基于名人面孔視覺特征與語義信息的統(tǒng)計(jì)加工的機(jī)制差異。我們假設(shè):如果在此情景下個(gè)體對(duì)名人面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)表現(xiàn)出“組塊”現(xiàn)象,或視覺統(tǒng)計(jì)完全消失,則說明被試對(duì)名人面孔語義信息的視覺統(tǒng)計(jì)加工發(fā)生在語義信息加工完成之后;如果被試對(duì)名人面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)與實(shí)驗(yàn)3B完全相同,則說明對(duì)名人面孔語義信息的視覺統(tǒng)計(jì)加工與語義信息加工同時(shí)進(jìn)行。

    5.1 方法

    5.1.1 被試

    均為某大學(xué)本科生或研究生。其中,實(shí)驗(yàn)4A共14名被試(4男,10女),年齡為18~26歲;實(shí)驗(yàn)4B共14名被試(7男,7女),年齡為19~25,均沒有參加過實(shí)驗(yàn)4A。被試均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實(shí)驗(yàn),實(shí)驗(yàn)結(jié)束后獲得學(xué)分或一定報(bào)酬。

    5.1.2 材料

    實(shí)驗(yàn)的面孔與名字材料均與實(shí)驗(yàn)3相同。

    5.1.3 設(shè)計(jì)與程序

    除了面孔(或名字)間隔時(shí)間改為400 ms外,熟悉階段與測(cè)試階段的程序均與實(shí)驗(yàn)3相同。

    5.2 結(jié)果

    被試能成功完成熟悉階段的重復(fù)圖片探測(cè)任務(wù)。其中,實(shí)驗(yàn)4A中重復(fù)目標(biāo)的平均探測(cè)概率為91.13%(

    SE

    =1.21%);實(shí)驗(yàn)4B中重復(fù)目標(biāo)的平均探測(cè)概率為90.09%(

    SE

    =1.34%)。實(shí)驗(yàn)4A的被試對(duì)面孔圖片的視覺統(tǒng)計(jì)學(xué)習(xí)效果非常顯著:在順序三聯(lián)體測(cè)試條件下,被試對(duì)熟悉三聯(lián)體的辨識(shí)率(65.63%)顯著高于隨機(jī)水平,

    t

    (13)=5.11,

    p

    <0.001,

    d

    =1.37,與實(shí)驗(yàn)3A順序三聯(lián)體測(cè)試條件下熟悉三聯(lián)體的辨識(shí)率無顯著差異,

    t

    (26)=1.85,

    p

    >0.05,

    d

    =0.73;在倒序三聯(lián)體測(cè)試條件下,被試對(duì)倒序三聯(lián)體熟悉性辨識(shí)率(52.23%)為隨機(jī)水平,

    t

    (13)=0.79,

    p

    >0.05,

    d

    =1.16,與實(shí)驗(yàn)3A倒序三聯(lián)體測(cè)試條件的情況相同。實(shí)驗(yàn)4B的被試對(duì)面孔名字的視覺統(tǒng)計(jì)學(xué)習(xí)效果不顯著:在順序三聯(lián)體測(cè)試條件下,被試對(duì)熟悉三聯(lián)體辨識(shí)率(51.34%)為隨機(jī)水平,

    t

    (13)=0.38,

    p

    >0.05,

    d

    =0.87,與實(shí)驗(yàn)3B順序三聯(lián)體測(cè)試條件下熟悉三聯(lián)體的辨識(shí)率有顯著差異,

    t

    (27)=2.90,

    p

    <0.01,

    d

    =1.12;在倒序三聯(lián)體測(cè)試條件下,被試對(duì)倒序三聯(lián)體的熟悉性辨識(shí)率(49.11%)為隨機(jī)水平,

    t

    (13)=–0.26,

    p

    >0.05,

    d

    =0.70,與實(shí)驗(yàn)3B倒序三聯(lián)體測(cè)試條件的情況相同。

    具體見圖6。

    5.3 討論

    實(shí)驗(yàn)4A與實(shí)驗(yàn)3A結(jié)果一致,表明被試基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)發(fā)生在刺激出現(xiàn)的700 ms之內(nèi);而實(shí)驗(yàn)4B中基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果消失,表明基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)發(fā)生于刺激出現(xiàn)的700 ms之后。這些結(jié)果提示:基于面孔視覺特征和語義信息視覺統(tǒng)計(jì)學(xué)習(xí)是分離的;與面孔視覺特征加工相比,個(gè)體基于面孔語義信息的統(tǒng)計(jì)運(yùn)算需要更長的時(shí)間。同時(shí)也說明,至少在基于語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)中,規(guī)律提取過程發(fā)生在特征加工完成之后。

    6 實(shí)驗(yàn)5視覺統(tǒng)計(jì)學(xué)習(xí)中的面孔特異性

    實(shí)驗(yàn)4的結(jié)果發(fā)現(xiàn),當(dāng)名人面孔呈現(xiàn)時(shí)間縮短后,個(gè)體基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果消失,而基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)效果依然顯著。有研究者認(rèn)為,實(shí)驗(yàn)4的面孔圖片均帶有發(fā)型,而發(fā)型差異是非常明顯的物理特征差異,它可能會(huì)干擾和增強(qiáng)面孔視覺統(tǒng)計(jì)學(xué)習(xí)效果。同時(shí),即使發(fā)型不會(huì)干擾面孔視覺統(tǒng)計(jì)學(xué)習(xí),實(shí)驗(yàn)4也并不能確定基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)是否與基于一般視覺特征(物理特征)的視覺統(tǒng)計(jì)學(xué)習(xí)相同,也就是說,個(gè)體基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)可能并不存在面孔特異性。因此,為了深入考察視覺統(tǒng)計(jì)學(xué)習(xí)中視覺特征加工的面孔特性,實(shí)驗(yàn)5采用去除發(fā)型后的名人面孔為實(shí)驗(yàn)材料,設(shè)置兩種面孔呈現(xiàn)方式(正立、倒置),通過比較被試基于正立面孔與倒置面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果,來探討面孔特征視覺統(tǒng)計(jì)學(xué)習(xí)的特異性。如果基于正立面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果顯著高于基于倒立面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果,說明基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)存在面孔特異性;如果基于正立面孔與基于倒置面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果無顯著差異,則說明基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)不存在面孔特性。

    6.1 方法

    6.1.1 被試

    均為某大學(xué)本科生或研究生。其中,正立實(shí)驗(yàn)共14名被試(6男,8女),年齡為18~24歲;倒置面孔實(shí)驗(yàn)共14名被試(7男,7女),年齡為19~24歲,均沒有參加過正立面孔實(shí)驗(yàn)。被試均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實(shí)驗(yàn),實(shí)驗(yàn)結(jié)束后獲得一定報(bào)酬。

    6.1.2 材料

    除了去除面孔的發(fā)型外,實(shí)驗(yàn)5的面孔均與實(shí)驗(yàn)4相同。正立面孔圖片垂直旋轉(zhuǎn)形成倒置面孔圖片。(見圖5)

    6.1.3 設(shè)計(jì)與程序

    除了采用倒置面孔外,熟悉階段與測(cè)試階段的程序均與實(shí)驗(yàn)4A相同。

    圖5 實(shí)驗(yàn)5面孔圖片示例

    6.2 結(jié)果

    被試能成功完成熟悉階段的重復(fù)圖片探測(cè)任務(wù)。其中,正立面孔重復(fù)目標(biāo)的平均探測(cè)概率為90.10%(

    SE

    =1.11%);倒置面孔重復(fù)目標(biāo)的平均探測(cè)概率為88.62%(

    SE

    =1.36%)。被試基于正立面孔圖片的視覺統(tǒng)計(jì)學(xué)習(xí)效果顯著高于基于倒置面孔圖片的視覺統(tǒng)計(jì)學(xué)習(xí)效果:

    t

    (26)=2.09,

    p

    <0.05,

    d

    =1.39。被試基于正立面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果非常顯著:對(duì)熟悉三聯(lián)體的辨識(shí)率(66.07%)顯著高于隨機(jī)水平,

    t

    (13)=4.93,

    p

    <0.001,

    d

    =1.34,對(duì)倒序三聯(lián)體的熟悉性辨識(shí)率(53.13%)為隨機(jī)水平,

    t

    (13)=1.29,

    p

    >0.05,

    d

    =0.34;被試基于倒置面孔圖片的視覺統(tǒng)計(jì)學(xué)習(xí)效果顯著:對(duì)熟悉三聯(lián)體的辨識(shí)率(57.14%)高于隨機(jī)水平,

    t

    (13)=2.58,

    p

    <0.05,

    d

    =0.69;對(duì)倒序三聯(lián)體的辨識(shí)率(49.11%)為隨機(jī)水平,

    t

    (13)=–0.25,

    p

    >0.05,

    d

    =0.07。

    圖6 實(shí)驗(yàn)4和實(shí)驗(yàn)5測(cè)試階段三聯(lián)體熟悉性判斷情況

    6.3 討論

    實(shí)驗(yàn)5中基于倒置面孔的視覺統(tǒng)計(jì)學(xué)習(xí)效果與正立面孔視覺統(tǒng)計(jì)學(xué)習(xí)效果差異顯著,表明基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)不同于基于一般視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí),即基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)存在面孔特異性。這些結(jié)果提示:基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)是區(qū)別于一般物理特征統(tǒng)計(jì)學(xué)習(xí)的。

    7 總討論

    本研究探討了個(gè)體基于面孔視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的特點(diǎn)。實(shí)驗(yàn)1和2考察個(gè)體能否基于名人面孔的視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí),結(jié)果與真實(shí)場(chǎng)景(Brady&Oliva,2008)和客體(Otsuka et al.,2013)的視覺統(tǒng)計(jì)學(xué)習(xí)一致,即個(gè)體能基于面孔的視覺特征和語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)。實(shí)驗(yàn)3A和3B利用倒序三聯(lián)體處理范式,考察基于面孔視覺特征和語義信息進(jìn)行統(tǒng)計(jì)運(yùn)算的精確性,結(jié)果顯示個(gè)體能基于名人面孔視覺特征和語義信息對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行精確運(yùn)算。實(shí)驗(yàn)4A和4B通過調(diào)整圖片呈現(xiàn)時(shí)間,探討視覺統(tǒng)計(jì)學(xué)習(xí)中基于面孔視覺特征和語義信息提取統(tǒng)計(jì)規(guī)律的機(jī)制,結(jié)果在縮減圖片呈現(xiàn)時(shí)間(由1000 ms縮短到700 ms)后,被試喪失了基于面孔語義信息進(jìn)行視覺統(tǒng)計(jì)學(xué)習(xí)的能力,提示基于名人面孔視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)可能是兩個(gè)分離的過程,基于語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)比基于視覺特征的統(tǒng)計(jì)學(xué)習(xí)需要更長時(shí)間。同時(shí)也表明,至少在基于語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)中,規(guī)律提取過程發(fā)生在特征加工完成之后。實(shí)驗(yàn)5利用倒置面孔呈現(xiàn)范式,考察基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)是否具有面孔特異性,結(jié)果顯示個(gè)體基于名人面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)不同于基于一般視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)。

    7.1 統(tǒng)計(jì)計(jì)算與組塊加工

    在視覺統(tǒng)計(jì)學(xué)習(xí)中,個(gè)體(基于視覺特征和語義信息)對(duì)時(shí)間順序結(jié)構(gòu)的統(tǒng)計(jì)運(yùn)算效果并不總是精確的。當(dāng)統(tǒng)計(jì)材料為無意義圖形時(shí),被試基于視覺特征對(duì)時(shí)間順序結(jié)構(gòu)的統(tǒng)計(jì)運(yùn)算表現(xiàn)出組塊現(xiàn)象(Turk-Browne&Scholl,2009);同時(shí),基于客體語義信息的統(tǒng)計(jì)運(yùn)算也表現(xiàn)出組塊加工的特點(diǎn)(Otsuka et al.,2013)。不過,以上這些組塊現(xiàn)象均會(huì)受測(cè)試情景的影響,當(dāng)測(cè)試情景要求被試判斷時(shí)間順序結(jié)構(gòu)(如A-B-C)與組塊結(jié)構(gòu)(如C-B-A)的熟悉性時(shí),被試表現(xiàn)出時(shí)間順序結(jié)構(gòu)精確加工的特點(diǎn)(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。而當(dāng)實(shí)驗(yàn)材料為帶有語義信息客體(Otsuka et al.,2013)時(shí),被試基于視覺特征的統(tǒng)計(jì)學(xué)習(xí)則直接表現(xiàn)出精確加工的特點(diǎn)。本研究(實(shí)驗(yàn)3)發(fā)現(xiàn),當(dāng)實(shí)驗(yàn)材料為名人面孔時(shí),被試能同時(shí)基于面孔視覺特征和語義信息對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行精確的統(tǒng)計(jì)運(yùn)算,而并沒有出現(xiàn)組塊現(xiàn)象。綜上,我們認(rèn)為,在視覺統(tǒng)計(jì)學(xué)習(xí)中,個(gè)體能夠同時(shí)基于刺激的視覺特征和語義信息進(jìn)行精確的統(tǒng)計(jì)運(yùn)算,而這種統(tǒng)計(jì)運(yùn)算能力的實(shí)現(xiàn)與刺激材料本身的特性和場(chǎng)景信息有關(guān)。

    Perruchet和Pacton(2006)認(rèn)為,時(shí)間規(guī)律與組塊之間存在三種可能的關(guān)系。第一,統(tǒng)計(jì)運(yùn)算(statistical computation)與組塊加工是獨(dú)立進(jìn)行的。Meulemans與van Der Linden(2003)也對(duì)該觀點(diǎn)進(jìn)行了闡述,他們基于遺忘癥病人的研究提出,組塊是意識(shí)的產(chǎn)物,而統(tǒng)計(jì)運(yùn)算則對(duì)內(nèi)隱任務(wù)的貢獻(xiàn)更大。當(dāng)然,也有研究者提出了不同的解釋(Kinder&Shanks,2003;Shanks,Channon,Wilkinson,&Curran,2006)。第二,統(tǒng)計(jì)運(yùn)算與組塊加工是兩個(gè)連續(xù)的階段,即組塊是由統(tǒng)計(jì)運(yùn)算推導(dǎo)的結(jié)果。有研究者將該解釋應(yīng)用于聽覺(Saffran,2001)和視覺(Fiser&Aslin,2005)的統(tǒng)計(jì)學(xué)習(xí)。第三,只存在組塊過程,對(duì)統(tǒng)計(jì)結(jié)構(gòu)的加工是該過程的副產(chǎn)物。其中,組塊競(jìng)爭(zhēng)模型(competitive chunking model)(Servan-Schreiber&Anderson,1990)和剖析器模型(PARSER model)(Perruchet&Vinter,2002)支持第三種觀點(diǎn)。例如,剖析器模型認(rèn)為,由于我們的注意資源有限,因此我們對(duì)輸入信息的組塊是基于隨機(jī)模式發(fā)生的,所形成的組塊也會(huì)因?yàn)槁?lián)結(jié)記憶規(guī)則而在隨后被遺忘或者被強(qiáng)化。

    結(jié)合先前的研究(Brady&Oliva,2008;Otsuka et al.,2013;Turk-Browne&Scholl,2009),本研究?jī)A向于支持第二種解釋。當(dāng)面臨新情境(測(cè)試階段)時(shí),人類需要基于先前的統(tǒng)計(jì)運(yùn)算結(jié)果進(jìn)行推導(dǎo),來判斷新情景中的結(jié)構(gòu)是否為熟悉的統(tǒng)計(jì)結(jié)構(gòu)。也就是說,被試在熟悉階段基于統(tǒng)計(jì)運(yùn)算推導(dǎo)出統(tǒng)計(jì)結(jié)構(gòu),而該統(tǒng)計(jì)結(jié)構(gòu)可能是精確的時(shí)間順序結(jié)構(gòu),也可能是靈活的組塊。當(dāng)新情景中需要被試對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行辨別時(shí),他們的辨別結(jié)果就可能呈現(xiàn)組塊現(xiàn)象。比如,有研究者發(fā)現(xiàn),在熟悉階段呈現(xiàn)隱含時(shí)間順序結(jié)構(gòu)(如ABC)的刺激序列,當(dāng)測(cè)試情景為倒序三聯(lián)體對(duì)偽三聯(lián)體(如CBA vs.IEA)時(shí),被試表現(xiàn)出組塊現(xiàn)象;當(dāng)測(cè)試情景為倒序三聯(lián)體對(duì)順序三聯(lián)體(如CBA vs.ABC)時(shí),組塊現(xiàn)象消失(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。以上研究中,被試的統(tǒng)計(jì)運(yùn)算過程并未發(fā)生變化,而測(cè)試情景的不同誘發(fā)不同的統(tǒng)計(jì)運(yùn)算結(jié)果,說明組塊與統(tǒng)計(jì)運(yùn)算加工直接相關(guān),而并不是兩個(gè)獨(dú)立的加工機(jī)制。本研究(實(shí)驗(yàn)4B)的結(jié)果顯示,當(dāng)被試沒能完成統(tǒng)計(jì)運(yùn)算任務(wù)時(shí),也不會(huì)發(fā)生組塊現(xiàn)象。綜合以上結(jié)果,我們認(rèn)為,組塊是基于統(tǒng)計(jì)運(yùn)算進(jìn)行推導(dǎo)的結(jié)果,而測(cè)試的情景信息、材料的名稱屬性等因素會(huì)影響被試的統(tǒng)計(jì)運(yùn)算能力。

    有研究者使用功能性核磁共振成像(fMRI)發(fā)現(xiàn),統(tǒng)計(jì)運(yùn)算的組塊現(xiàn)象可能是統(tǒng)計(jì)運(yùn)算所形成的抽象信息所導(dǎo)致的。大腦中存在與視覺統(tǒng)計(jì)學(xué)習(xí)密切相關(guān)的腦區(qū):尾葉(caudate)和海馬回(hippocampus)。海馬回的參與表明個(gè)體生成了更抽象的知識(shí)信息以便適用于更廣泛的新情境,而尾葉的參與則使知識(shí)以客體的具體視覺特征方式保存下來,從而可以精確再現(xiàn)所加工的情境(Turk-Browne et al.,2009)。

    7.2 面孔視覺特征與語義加工

    本研究熟悉階段只呈現(xiàn)面孔圖片,而在測(cè)試階段呈現(xiàn)名人面孔圖片(實(shí)驗(yàn)1、3A)或面孔名字(實(shí)驗(yàn)2、3B),結(jié)果個(gè)體基于名人面孔視覺特征與語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果具有一致性,這說明人類會(huì)自動(dòng)將人臉面孔與其特定名稱聯(lián)系起來(Alvarez et al.,2009),且能直接利用名稱信息進(jìn)行規(guī)律加工。不過,先前研究者認(rèn)為,面孔視覺特征與語義信息加工并不是同時(shí)完成的(Alvarez et al.,2009;Bruce&Young,1986),因此,我們?cè)O(shè)計(jì)了實(shí)驗(yàn)4來考察視覺統(tǒng)計(jì)學(xué)習(xí)中面孔視覺特征與語義信息的加工特點(diǎn),結(jié)果發(fā)現(xiàn)當(dāng)面孔呈現(xiàn)時(shí)間縮短(1000 ms縮短至700 ms)后,被試能保持基于面孔視覺特征的統(tǒng)計(jì)學(xué)習(xí)能力(實(shí)驗(yàn)4A),且基于面孔特征的視覺統(tǒng)計(jì)學(xué)習(xí)顯著優(yōu)于基于一般物理特征的視覺統(tǒng)計(jì)學(xué)習(xí)(實(shí)驗(yàn)5),但基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)能力消失,說明基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)需要更多的加工時(shí)間。Bruce和Young(1986)認(rèn)為,面孔加工可分為輪廓加工(structural coding)、面孔識(shí)別(face recognition units,FRUs)、身份識(shí)別(person identity nodes,PINs)和語義加工(name generation)等4個(gè)階段,其中語義加工發(fā)生在輪廓加工的基礎(chǔ)之上(Bruce&Young,1986;Burton et al.,1990)。有研究者利用ERPs技術(shù)對(duì)面孔加工的階段進(jìn)行了具體的分析(Alvarez,et al.,2009),認(rèn)為面孔視覺特征的加工在刺激呈現(xiàn)170 ms左右就已完成(Bentin&Deouell,2000),而直到刺激呈現(xiàn)750 ms左右才完成面孔語義信息的加工(Diaz et al.,2007)。因此,本研究的結(jié)果也支持了語義加工比視覺特征加工需要更長時(shí)間的觀點(diǎn)。

    Otsuka等人(2013)認(rèn)為,被試基于客體視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)是兩個(gè)平行的過程,在基于視覺特征提取時(shí)間順序的同時(shí)形成了不具有時(shí)間規(guī)律信息的語義組塊。結(jié)合本研究實(shí)驗(yàn)3和實(shí)驗(yàn)4的結(jié)果,我們認(rèn)為,被試基于名人面孔視覺特征和語義信息的視覺統(tǒng)計(jì)加工是分離的,基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)需要更多的加工時(shí)間。這兩個(gè)過程到底是平行加工的,還是序列加工的?由于在實(shí)驗(yàn)4B中未檢驗(yàn)被試對(duì)語義信息的加工情況,因此本研究并不能給出直接判斷。不過,結(jié)合Alvarez等人(2009)關(guān)于面孔名稱的研究可以推知,被試在實(shí)驗(yàn)4B中應(yīng)該完成了面孔語義信息的加工,只是未能加工面孔名稱之間的統(tǒng)計(jì)關(guān)系。由此,我們猜想,個(gè)體基于面孔特征的統(tǒng)計(jì)運(yùn)算過程可能與面孔語義信息加工同時(shí)進(jìn)行,即被試基于面孔視覺特征和語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)也是兩個(gè)平行的過程。當(dāng)然,這還需要更多的研究進(jìn)行論證,我們實(shí)驗(yàn)的熟悉階段只呈現(xiàn)面孔圖片來啟動(dòng)面孔名字,先前研究發(fā)現(xiàn),涉及面孔圖片加工(Campanella et al.,2001;Kanwisher et al.,1997;Sergent et al.,1992)與面孔名字加工(Damasioetal.,1996;Gorno-Tempini et al.,1998)的腦區(qū)是分離的。同時(shí),基于面孔圖片的啟動(dòng)結(jié)果和基于面孔名字的啟動(dòng)結(jié)果也存在差異(Joassin et al.,2007)。因此,以后的研究可以采用在熟悉階段只呈現(xiàn)面孔語義信息(名字)的方式,深入探究基于面孔視覺特征和面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)之間的相互關(guān)系。實(shí)驗(yàn)4的圖片呈現(xiàn)時(shí)間較實(shí)驗(yàn)3減少了300 ms,基于面孔視覺特征信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果無顯著變化,而基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果消失,表明基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)時(shí)間要求少于700 ms,而基于名人面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)的時(shí)間要求在700~1000 ms之間。先前研究也表明,統(tǒng)計(jì)運(yùn)算的時(shí)間要求會(huì)因?yàn)榻y(tǒng)計(jì)學(xué)習(xí)效果而發(fā)生變化(Abla&Okanoya,2009)。本研究未能對(duì)基于面孔不同特征的統(tǒng)計(jì)運(yùn)算時(shí)間進(jìn)行精確地控制,因此,需要以后更多的研究來繼續(xù)探討基于不同特征的統(tǒng)計(jì)學(xué)習(xí)發(fā)生的時(shí)間要求。

    Brady與Oliva(2008)認(rèn)為,利用抽象類別信息可以減少統(tǒng)計(jì)學(xué)習(xí)中需要提取和儲(chǔ)存的信息量,從而更輕松地習(xí)得統(tǒng)計(jì)規(guī)律。有研究者認(rèn)為,研究中基于語義信息的測(cè)試結(jié)果(實(shí)驗(yàn)2和3B)提示:被試基于面孔圖片的測(cè)試實(shí)驗(yàn)結(jié)果(實(shí)驗(yàn)1和3A)可能獲得來自面孔語義信息的促進(jìn)作用。我們?cè)趯?shí)驗(yàn)4縮短熟悉階段面孔呈現(xiàn)時(shí)間,結(jié)果發(fā)現(xiàn)基于面孔語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果消失,但基于面孔視覺特征信息的視覺統(tǒng)計(jì)學(xué)習(xí)效果并沒有顯著降低,這在一定程度上說明基于面孔語義信息與面孔特征信息的視覺統(tǒng)計(jì)學(xué)習(xí)是兩個(gè)分離的過程,即面孔語義信息并不會(huì)影響面孔視覺(輪廓)特征的加工(Bentin&Deouell,2000)。不過,這還不能完全排除被試在面孔圖片較長呈現(xiàn)時(shí)間條件下(實(shí)驗(yàn)1和3A)利用語義信息促進(jìn)基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)的可能。因此,以后的研究可以采用其他的手段(比如在面孔呈現(xiàn)過程中,通過雙任務(wù)范式抑制被試的面孔命名過程),進(jìn)一步探討面孔語義信息在基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)中是否起作用。我們的實(shí)驗(yàn)(3B)發(fā)現(xiàn)個(gè)體能基于面孔語義信息對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行精確加工,這與Otsuka等人(2013)(實(shí)驗(yàn)2B)以客體語義信息為測(cè)試材料的研究結(jié)果不一致。我們認(rèn)為,這種差異可能是由客體名稱與面孔名稱加工的差異導(dǎo)致的。面孔名稱與面孔的關(guān)系具有唯一性,而客體名稱則代表某一類客體。Joassin等人(2007)發(fā)現(xiàn),與客體名稱與客體本身的匹配相比,被試更容易完成面孔名稱與面孔本身的匹配任務(wù)。在視覺統(tǒng)計(jì)學(xué)習(xí)范式中,熟悉階段以(客體或面孔)圖片的方式呈現(xiàn)統(tǒng)計(jì)結(jié)構(gòu),被試基于圖片生成語義信息,因此,對(duì)圖片與名稱之間匹配關(guān)系的加工程度將影響個(gè)體基于名稱進(jìn)行統(tǒng)計(jì)結(jié)構(gòu)判斷的結(jié)果。也就是說,當(dāng)刺激材料為擁有語義信息的熟悉事物時(shí),被試能基于語義信息加工時(shí)間順序結(jié)構(gòu),不過其加工的效果將受刺激材料語義屬性的影響,即當(dāng)語義信息為特定名稱(如面孔名稱)時(shí),基于語義信息對(duì)時(shí)間順序結(jié)構(gòu)的加工是精確的,而當(dāng)語義信息為類別名稱(如客體名稱)時(shí),基于客體語義信息的時(shí)間順序結(jié)構(gòu)加工則表現(xiàn)出組塊現(xiàn)象。以后的研究可進(jìn)一步考察個(gè)體基于其他具有特定名稱的非社交主體(如建筑物)進(jìn)行的視覺統(tǒng)計(jì)學(xué)習(xí)。

    8 結(jié)論

    本研究獲得以下結(jié)論:(1)個(gè)體能同時(shí)基于名人面孔的視覺特和語義信息進(jìn)行精確的視覺統(tǒng)計(jì)學(xué)習(xí);(2)基于名人面孔視覺特征和語義信息對(duì)時(shí)間順序結(jié)構(gòu)進(jìn)行統(tǒng)計(jì)運(yùn)算的結(jié)果具有一致的精確性;(3)基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)表現(xiàn)出顯著的面孔特性,即個(gè)體基于面孔視覺特征的視覺統(tǒng)計(jì)學(xué)習(xí)不同于基于一般物理特征的視覺統(tǒng)計(jì)學(xué)習(xí);(4)基于名人面孔視覺特征信息與語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)過程是分離的,統(tǒng)計(jì)運(yùn)算過程發(fā)生在面孔特征加工完成之后,基于語義信息的視覺統(tǒng)計(jì)學(xué)習(xí)需要更多的加工時(shí)間。

    Abla,D.,&Okanoya,K.(2009).Visual statistical learning of shape sequences:An ERP study.

    Neuroscience Research,64

    ,185–190.Ahmed,S.,Arnold,R.,Thompson,S.A.,Graham,K.S.,&Hodges,J.R.(2008)Naming of objects,faces and buildings in mild cognitive impairment.

    Cortex,44

    ,746–752.álvarez,S.G.,Novo,M.L.,&Fernández,F.D.(2009).Naming faces:A multidisciplinary and integrated review.

    Psicothema,21

    ,521–527.Baldwin,D.,Anderrson,A.,Saffran,J.,&Meyer,M.(2008).Segmenting dynamic human action via statistical structure.

    Cognition,106

    ,1382–1407.Bentin,S.,&Deouell,L.Y.(2000).Structural encoding and identification in face processing:ERP evidence for separate mechanisms.

    Cognitive Neuropsychology,17

    ,35–54.Brady,T.F.,&Oliva,A.(2008).Statistical learning using real-world scenes:Extracting categorical regularities without conscious intent.

    Psychological Science,19

    ,678–685.Bredart,S.(1993).Retrieval failures in face naming.

    Memory,1

    ,351–366.Bruce,V.,&Young,A.(1986).Understanding face recognition.

    British Journal of Psychology,77

    ,305–327.Burton,A.M.,Bruce,V.,&Johnson,R.A.(1990).Understanding face recognition with an interactive activation model.

    British Journal of Psychology,81

    ,361–380.Campanella,S.,Joassin,F.,Rossion,B.,De Volder,A.G.,Bruyer,R.,&Crommelinck,M.(2001).Association of the distinct visual representations of faces and names:A PET activation study.

    NeuroImage,14

    ,873–882.Conway,C.M.,Bauernschmidt,A.,Huang,S.S.,&Pisoni,D.B.(2010).Implicit statistical learning in language processing:Word predictability is the key.

    Cognition,114

    ,356–371.Conway,C.M.,&Christiansen,M.H.(2006).Statistical learning within and between modalities:Pitting abstract against stimulus-specific representations.

    Psychological Science,17

    ,905–912.Damasio,H.,Grabowski,T.J.,Tranel,D.,Hichwa,R.D.,&Damasio,A.R.(1996).A neural basis for lexical retrieval.

    Nature,380

    ,499–505.Diaz,F.,Lindín,M.,Galdo-Alvarez,S.,Facal,D.,&Juncos-Rabadán,O.(2007).An event-related potentials study of face identification and naming:The tip-of-the-tongue state.

    Psychophysiology,44

    ,50–68.Evrard,M.(2002).Ageing and lexical access to common and proper names in picture naming.

    Brain Language,81

    ,174–179.Fiser,J.,&Aslin,R.N.(2001).Unsupervised statistical learning of higher-order spatial structures from visual scenes.

    Psychological Science,12

    ,499–504.Fiser,J.,&Aslin,R.N.(2002).Statistical learning of higher-order temporal structure from visual shape sequences.

    Journal of Experimental Psychology:Learning,Memory,and Cognition,28

    ,458–467.Fiser,J.,&Aslin,R.N.(2005).Encoding multi-element scenes:Statistical learning of visual features hierarchies.

    Journal of Experimental Psychology:General,134

    ,521–537.Freire,A.,Lee,K.,&Symons,L.A.(2000).The face-inversion effect as a deficit in the encoding of configural information:Direct evidence.

    Perception,29

    ,159–170.Germain-Mondona,V.,Silvert,L.,&Izaute,M.(2011).N400 modulation by categorical or associative interference in a famous face naming task.

    Neuroscience Letters,501

    ,188–192.Goldwater,S.,Griffiths,T.L.,&Johnson,M.(2009).A Bayesian framework for word segmentation:Exploring the effects of context.

    Cognition,112,

    21–54.Gorno-Tempini,M.L.,Price,C.J.,Josephs,O.,Vandenberghe,R.,Cappa,S.F.,Kappur,N.,&Frackowiak,R.S.J.(1998).The neural systems sustaining face and proper name processing.

    Brain,121

    ,2103–2118.Guillaumea,C.,Guillery-Girard,B.,Chaby,L.,Lebreton,K.,Hugueville,L.,Eustache,F.,&Fiori,N.(2009).The time course of repetition effects for familiar faces and objects:An ERP study.

    Brain Research,1248

    ,149–161.Huddy,V.,Schweinberger,S.R.,Jentzsch,I.,&Burton,A.M.(2003).Matching faces for semantic information and names:An event-related brain potentials study.

    Cognitive Brain Research,17

    ,314–326.Joassin,F.,Meert,G.,Campanella,S.,&Bruyer,R.(2007).The associative processes involved in faces-proper names versus-animals-common names binding:A comparative ERP study.

    Biological Psychology,75

    ,286–299Kanwisher,N.,McDermott,J.,&Chun,M.M.(1997).The fusiform face area:a module in human extrastriate cortex specialized for face perception.

    The Journal of Neuroscience,17

    ,4302–4311.Kinder,A.,&Shanks,D.R.(2003).Neuropsychological dissociations between priming and recognition:A single-system connectionist account.

    Psychological Review,110

    ,728–744.Kirkham,N.Z.,Slemmer,J.A.,&Johnson,S.P.(2002).Visual statistical learning in infancy: Evidence for a domain general learning mechanism.

    Cognition,83

    ,35–42.Langton,S.R.H.,Law,A.S.,Burton,A.M.,&Scweinberger,S.R.(2008).Attention capture by faces.

    Cognition,107

    ,330–342.Marcus,G.F.,Vijayan,S.,Bandi Rao,S.,Vishton,P.M.(1999).Rule learning by seven-month-old infants.

    Science,283

    ,77–80.Martins,I.P.,&Farrajota,L.(2006).Proper and common names:A double dissociation.

    Neuropsychologia,45

    ,1744–1756.Meulemans,T.,&van der Linden,M.(2003).Implicit learning of complex information in amnesia.

    Brain and Cognition,52

    ,250–257.Miller,G.A.,&Selfridge,J.A.(1950).Verbal context and the recall of meaningful material.

    American Journal of Psychology,63

    ,176–185.Otsuka,S.,Nishiyama,M.,Nakahara,F.,&Kawaguchi,J.(2013).Visual statistical learning based on the perceptual and semantic information of objects.

    Journal of Experimental Psychology:Learning,Memory,and Cognition,39

    ,196–207.Perruchet,P.,&Pacton,S.(2006).Implicit learning and statistical learning: One phenomenon, two approaches.

    Trends in Cognitive Sciences,10

    ,233–238.Perruchet,P.,&Vinter,A.(2002).The self-organizing consciousness.

    Behavioral and Brain Sciences,25

    ,297–330.Pickering,E.C.,&Schweinberger,S.R.(2003).N200,N250r,and N400 event-related brain potentials reveal three loci of repetition priming for familiar names.

    Journal of Experimental Psychology:Learning,Memory,and Cognition,29

    ,1298–1311.Rugg,M.D.,&Curran,T.(2007).Event-related potentials and recognition memory.

    Trendsin Cognitive Science,11

    ,251–257.Saavedra,C.,Iglesias,J.,&Olivares,E.I.(2010).Eventrelated potential elicited by the explicit and implicit processing of familiarity in faces.

    Clinical EEG and Neuroscience,41

    ,24–31.Saffran,J.R.(2001).Words in a sea of sounds:The output of infant statistical learning.

    Cognition,81

    ,149–169.Saffran,J.R.,Aslin,R.N.,&Newport,E.L.(1996).Statistical learning by 8-month-old infants.

    Science,274

    ,1926–1928.Semenza,C.(2006).Retrieval pathways for common and proper names.

    Cortex,42

    ,884–891.Sergent,J.,Ohta,S.,&McDonald,B.(1992).Functional neuroanatomy of face and object processing.

    Brain,115

    ,15–36.Servan-Schreiber,D.,&Anderson,J.R.(1990).Learning artificial grammars with competitive chunking.

    Journal of Experimental Psychology:Learning,Memory,and Cognition,16

    ,592–608.Shanks,D.R.,Channon,S.,Wilkinson,L.,&Curran,H.V.(2006).Disruption of sequential priming in organic and pharmacological amnesia:A role for the medial temporal lobes in implicit contextual learning.

    Neuropsychopharmacology,31

    ,1768–1776.Sobel,D.M.,Tenenbaum,J.B.,&Gopnik,A.(2004).Children’s causal inferences from indirect evidence:Backwards blocking and Bayesian reasoning in preschoolers.

    Cognition,28

    ,303–333.Theeuwes,J.,&van der Stigchel,S.(2006).Faces capture attention:Evidence from inhibition of return.

    Visual Cognition,13

    ,657–665.Turk-Browne,N.B.,Isola,P.J.,Scholl,B.J.,&Treat,T.A.(2008).Multidimensional visual statistical learning.

    Journal of Experimental Psychology:Learning,Memory,and Cognition,34

    ,399–407.Turk-Browne,N.B.,Junge,J.A.,&Scholl,B.J.(2005).The automaticity of visual statistical learning.

    Journal of Experimental Psychology:General,134

    ,552–564.Turk-Browne,N.B.,&Scholl,B.J.(2009).Flexible visual statistical learning:Transfer across space and time.

    Journal of Experimental Psychology:Human Perception and Performance,35

    ,195–202.Turk-Browne,N.B.,Scholl,B.J.,Chun,M.M.,&Johnson,M.K.(2009).Neural evidence of statistical learning:Efficient detection of visual regularities without awareness.

    Journal of Cognitive Neuroscience,21

    ,1934–1945.Webster,M.A.,&MacLeod,D.I.(2011).Visual adaptation and face perception.

    Philosophical Transactions of the Royal Society B:Biological Sciences,366

    ,1702–1725.Wiese,H.,&Schweinberger,S.R.(2011).Accessing semantic person knowledge: Temporal dynamics of nonstrategic categorical and associative priming.

    Journal of Cognitive Neuroscience,23

    ,447–459.Willingham,D.B.,Nissen,M.J.,&Bullemer P.(1989).On the development of procedural knowledge.

    Journal of Experimental Psychology:Learning,Memory,and Cognition,15

    ,1047–1060.Yuille,A.,&Kersten,D.(2006).Vision as Bayesian inference:Analysis by synthesis.

    Trends in Cognitive Science,10

    ,301–308.

    猜你喜歡
    語義特征實(shí)驗(yàn)
    記一次有趣的實(shí)驗(yàn)
    語言與語義
    如何表達(dá)“特征”
    做個(gè)怪怪長實(shí)驗(yàn)
    不忠誠的四個(gè)特征
    抓住特征巧觀察
    NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
    實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
    太空探索(2016年5期)2016-07-12 15:17:55
    “上”與“下”語義的不對(duì)稱性及其認(rèn)知闡釋
    認(rèn)知范疇模糊與語義模糊
    日韩制服骚丝袜av| 国产一区二区在线观看日韩| 激情五月婷婷亚洲| a 毛片基地| 国产精品麻豆人妻色哟哟久久| 99re6热这里在线精品视频| 香蕉丝袜av| 久久精品国产自在天天线| 国产精品女同一区二区软件| 国产无遮挡羞羞视频在线观看| 少妇的逼水好多| 亚洲欧美一区二区三区黑人 | 亚洲成人手机| 自线自在国产av| 免费在线观看完整版高清| 美女大奶头黄色视频| 精品午夜福利在线看| 亚洲国产最新在线播放| 国产亚洲av片在线观看秒播厂| 欧美+日韩+精品| 国产成人精品无人区| 十分钟在线观看高清视频www| 精品少妇久久久久久888优播| 人妻系列 视频| 久久久欧美国产精品| 母亲3免费完整高清在线观看 | 亚洲av电影在线观看一区二区三区| 新久久久久国产一级毛片| a级片在线免费高清观看视频| 久久久亚洲精品成人影院| 啦啦啦在线观看免费高清www| 欧美日韩国产mv在线观看视频| 亚洲精品国产av蜜桃| 99re6热这里在线精品视频| 亚洲精品,欧美精品| 男女高潮啪啪啪动态图| 99热6这里只有精品| 日韩精品免费视频一区二区三区 | 综合色丁香网| 中文字幕制服av| 亚洲精品美女久久久久99蜜臀 | 老熟女久久久| av.在线天堂| 成人国产av品久久久| 久久久国产一区二区| 中文字幕精品免费在线观看视频 | 丰满乱子伦码专区| 激情视频va一区二区三区| 国产不卡av网站在线观看| 1024视频免费在线观看| 在线观看美女被高潮喷水网站| 韩国高清视频一区二区三区| 久久久久国产网址| 国产成人免费观看mmmm| 男人爽女人下面视频在线观看| 免费少妇av软件| 亚洲av日韩在线播放| 中文精品一卡2卡3卡4更新| 99久久精品国产国产毛片| av黄色大香蕉| 国产福利在线免费观看视频| 久久久国产一区二区| 下体分泌物呈黄色| 在线观看免费视频网站a站| 交换朋友夫妻互换小说| 国产成人av激情在线播放| 另类精品久久| 精品酒店卫生间| 最新中文字幕久久久久| 又黄又粗又硬又大视频| 久久这里有精品视频免费| 成人毛片a级毛片在线播放| 久久人人爽人人爽人人片va| 激情视频va一区二区三区| 人人妻人人爽人人添夜夜欢视频| 人人妻人人添人人爽欧美一区卜| 国产精品久久久久久精品古装| 99国产精品免费福利视频| 中文欧美无线码| 欧美日韩视频高清一区二区三区二| 麻豆精品久久久久久蜜桃| a级片在线免费高清观看视频| 免费人妻精品一区二区三区视频| 国产免费视频播放在线视频| 老女人水多毛片| 永久网站在线| av天堂久久9| 国产精品国产三级国产专区5o| 熟女av电影| 国产 一区精品| 91在线精品国自产拍蜜月| 久久久久久人人人人人| 午夜福利在线观看免费完整高清在| 五月玫瑰六月丁香| 日韩一区二区三区影片| 久久精品国产亚洲av涩爱| 国产极品粉嫩免费观看在线| 热99国产精品久久久久久7| 亚洲国产看品久久| 久久免费观看电影| 亚洲,一卡二卡三卡| 久久久久久人妻| 黑丝袜美女国产一区| 一级毛片 在线播放| 欧美 亚洲 国产 日韩一| 久久婷婷青草| 看非洲黑人一级黄片| 亚洲高清免费不卡视频| 久久久久久久亚洲中文字幕| 超色免费av| 日韩成人av中文字幕在线观看| 精品国产乱码久久久久久小说| 大陆偷拍与自拍| 狠狠婷婷综合久久久久久88av| 国产免费现黄频在线看| 视频在线观看一区二区三区| 亚洲av成人精品一二三区| 久久久久久久久久久免费av| 亚洲性久久影院| 国产女主播在线喷水免费视频网站| 午夜av观看不卡| 国产男人的电影天堂91| 国产精品久久久久久av不卡| 免费少妇av软件| 亚洲精品乱码久久久久久按摩| 免费大片18禁| 韩国精品一区二区三区 | 尾随美女入室| 激情视频va一区二区三区| 欧美亚洲日本最大视频资源| 国产色婷婷99| 亚洲精品美女久久久久99蜜臀 | 中国三级夫妇交换| 人人澡人人妻人| 成年人午夜在线观看视频| 中文字幕免费在线视频6| 国产av一区二区精品久久| 久久精品人人爽人人爽视色| 日本av免费视频播放| 两个人看的免费小视频| 99热这里只有是精品在线观看| h视频一区二区三区| 成人毛片a级毛片在线播放| 久久热在线av| 高清在线视频一区二区三区| 超色免费av| 国产成人a∨麻豆精品| 少妇精品久久久久久久| 两性夫妻黄色片 | 午夜福利乱码中文字幕| av免费观看日本| 一区二区三区乱码不卡18| 免费人成在线观看视频色| 国产精品偷伦视频观看了| 亚洲成人手机| 欧美老熟妇乱子伦牲交| 爱豆传媒免费全集在线观看| 国产一级毛片在线| 边亲边吃奶的免费视频| av国产精品久久久久影院| videos熟女内射| 男女啪啪激烈高潮av片| 精品少妇内射三级| 久久亚洲国产成人精品v| 亚洲综合色惰| 国产黄色视频一区二区在线观看| 久久国产精品大桥未久av| 九色成人免费人妻av| 另类精品久久| 国产福利在线免费观看视频| 啦啦啦中文免费视频观看日本| 老女人水多毛片| 婷婷色麻豆天堂久久| 日日爽夜夜爽网站| 国产又色又爽无遮挡免| 亚洲精品乱久久久久久| 香蕉精品网在线| 国产av码专区亚洲av| 国产视频首页在线观看| 欧美精品高潮呻吟av久久| 最新的欧美精品一区二区| 午夜福利视频精品| 尾随美女入室| 久久人人爽人人爽人人片va| 99久久人妻综合| 国产成人精品无人区| 色视频在线一区二区三区| 久久久a久久爽久久v久久| 亚洲精品日韩在线中文字幕| av不卡在线播放| 人妻一区二区av| 日本vs欧美在线观看视频| 午夜激情av网站| 国产欧美亚洲国产| 欧美精品av麻豆av| tube8黄色片| 成人手机av| 夜夜骑夜夜射夜夜干| 亚洲国产精品999| 精品国产一区二区久久| 国产日韩欧美视频二区| 日本免费在线观看一区| 黄片播放在线免费| 一区二区日韩欧美中文字幕 | 欧美成人午夜精品| 最近中文字幕2019免费版| av一本久久久久| 国产深夜福利视频在线观看| 一区二区三区精品91| 最后的刺客免费高清国语| 亚洲欧美成人精品一区二区| 国产精品国产三级国产av玫瑰| 国产精品一二三区在线看| 美女脱内裤让男人舔精品视频| 久久久国产一区二区| 美女视频免费永久观看网站| 男女啪啪激烈高潮av片| 亚洲av免费高清在线观看| 亚洲成av片中文字幕在线观看 | av天堂久久9| 极品少妇高潮喷水抽搐| 一区在线观看完整版| 在线 av 中文字幕| 美女脱内裤让男人舔精品视频| 亚洲国产精品一区三区| 免费人成在线观看视频色| 99热国产这里只有精品6| 午夜激情av网站| 90打野战视频偷拍视频| 最近中文字幕高清免费大全6| videossex国产| 18+在线观看网站| 99久久中文字幕三级久久日本| 欧美丝袜亚洲另类| 91午夜精品亚洲一区二区三区| 精品少妇内射三级| 国产在线视频一区二区| 精品第一国产精品| 一区二区日韩欧美中文字幕 | 丝袜在线中文字幕| 欧美精品一区二区大全| 99久久精品国产国产毛片| 十八禁网站网址无遮挡| 成人18禁高潮啪啪吃奶动态图| 国产高清三级在线| 一区二区av电影网| 999精品在线视频| 成年美女黄网站色视频大全免费| 国产精品欧美亚洲77777| 欧美成人精品欧美一级黄| 老司机影院毛片| 国产欧美另类精品又又久久亚洲欧美| 在线 av 中文字幕| 久久亚洲国产成人精品v| 免费人妻精品一区二区三区视频| 久久ye,这里只有精品| 日韩一区二区三区影片| 午夜视频国产福利| 亚洲一码二码三码区别大吗| 2018国产大陆天天弄谢| 韩国av在线不卡| 在线观看免费视频网站a站| freevideosex欧美| 久久99热这里只频精品6学生| 亚洲国产成人一精品久久久| 久久鲁丝午夜福利片| 国产极品粉嫩免费观看在线| 丝袜美足系列| 91成人精品电影| 国产免费福利视频在线观看| 国产一区亚洲一区在线观看| 国产精品熟女久久久久浪| 国产淫语在线视频| 一级片免费观看大全| 一级片'在线观看视频| 美女国产高潮福利片在线看| 亚洲丝袜综合中文字幕| 日韩人妻精品一区2区三区| 亚洲欧洲精品一区二区精品久久久 | 亚洲精品国产av成人精品| 在线天堂中文资源库| 成人影院久久| 一区二区日韩欧美中文字幕 | 精品99又大又爽又粗少妇毛片| 全区人妻精品视频| av天堂久久9| 黄色视频在线播放观看不卡| 国产精品免费大片| 下体分泌物呈黄色| 国产一区二区三区综合在线观看 | 9色porny在线观看| 乱人伦中国视频| 日韩人妻精品一区2区三区| 国产精品免费大片| 在线免费观看不下载黄p国产| 蜜桃在线观看..| 久久久久久久久久久免费av| 成人国产av品久久久| 久久久久久久大尺度免费视频| 国产成人精品福利久久| 菩萨蛮人人尽说江南好唐韦庄| www日本在线高清视频| 精品人妻在线不人妻| 一级,二级,三级黄色视频| 国产精品女同一区二区软件| 久久久久久人人人人人| 免费av不卡在线播放| 日本猛色少妇xxxxx猛交久久| 国产乱来视频区| 久久久国产精品麻豆| 搡女人真爽免费视频火全软件| 国产片特级美女逼逼视频| 国产探花极品一区二区| 日本爱情动作片www.在线观看| 日韩在线高清观看一区二区三区| 国产亚洲最大av| 精品国产一区二区三区四区第35| 国产精品人妻久久久影院| 十八禁高潮呻吟视频| 欧美bdsm另类| 熟妇人妻不卡中文字幕| 国产麻豆69| 狠狠精品人妻久久久久久综合| 午夜av观看不卡| 亚洲精品第二区| 九九在线视频观看精品| 一区二区三区乱码不卡18| 国产成人精品在线电影| 久久精品国产综合久久久 | 国产精品熟女久久久久浪| 美女脱内裤让男人舔精品视频| 国产精品久久久久久av不卡| 伦理电影大哥的女人| xxxhd国产人妻xxx| 精品人妻熟女毛片av久久网站| 9色porny在线观看| 99re6热这里在线精品视频| 9色porny在线观看| 99国产精品免费福利视频| 美女xxoo啪啪120秒动态图| 18+在线观看网站| 国国产精品蜜臀av免费| 18+在线观看网站| 丰满乱子伦码专区| 18+在线观看网站| av一本久久久久| 两个人免费观看高清视频| 亚洲综合色网址| 国产又爽黄色视频| 一级a做视频免费观看| 日韩精品免费视频一区二区三区 | 男女午夜视频在线观看 | 秋霞伦理黄片| 国产亚洲午夜精品一区二区久久| 少妇的逼水好多| 国产亚洲午夜精品一区二区久久| 国产午夜精品一二区理论片| 中文字幕最新亚洲高清| 人人妻人人爽人人添夜夜欢视频| 最近中文字幕高清免费大全6| 亚洲在久久综合| 两个人看的免费小视频| 免费看光身美女| 国产成人av激情在线播放| 人妻一区二区av| 青青草视频在线视频观看| 免费在线观看完整版高清| 亚洲av电影在线观看一区二区三区| 蜜桃在线观看..| 久久影院123| 国产不卡av网站在线观看| av天堂久久9| 欧美激情 高清一区二区三区| 制服人妻中文乱码| 人人妻人人爽人人添夜夜欢视频| av国产精品久久久久影院| 免费大片黄手机在线观看| 啦啦啦视频在线资源免费观看| 国产探花极品一区二区| 国产精品久久久久久av不卡| 国产熟女欧美一区二区| 男人爽女人下面视频在线观看| 亚洲精品aⅴ在线观看| 丝袜脚勾引网站| 久久久亚洲精品成人影院| 精品一区二区三区视频在线| 男的添女的下面高潮视频| 黄色视频在线播放观看不卡| 汤姆久久久久久久影院中文字幕| 超碰97精品在线观看| 制服诱惑二区| 高清毛片免费看| 精品一区二区免费观看| 精品人妻一区二区三区麻豆| 亚洲综合色网址| 久久这里有精品视频免费| 国产精品欧美亚洲77777| 国产成人午夜福利电影在线观看| 免费大片18禁| 亚洲中文av在线| 好男人视频免费观看在线| 国产熟女欧美一区二区| 国产精品久久久久久精品电影小说| 人成视频在线观看免费观看| 亚洲精品第二区| 国产精品成人在线| 久久久久久人人人人人| 一级毛片 在线播放| 亚洲国产毛片av蜜桃av| 国产激情久久老熟女| 欧美变态另类bdsm刘玥| 欧美日韩视频高清一区二区三区二| 日韩,欧美,国产一区二区三区| 中文字幕av电影在线播放| 亚洲中文av在线| 精品久久久精品久久久| 成人毛片a级毛片在线播放| 99热6这里只有精品| 亚洲av国产av综合av卡| 婷婷色av中文字幕| 草草在线视频免费看| 久久久国产欧美日韩av| 欧美国产精品一级二级三级| 欧美+日韩+精品| 久久国产亚洲av麻豆专区| 黑丝袜美女国产一区| 又黄又粗又硬又大视频| 22中文网久久字幕| 亚洲精品中文字幕在线视频| 日本vs欧美在线观看视频| 国产又爽黄色视频| 制服人妻中文乱码| 日韩熟女老妇一区二区性免费视频| 性色avwww在线观看| 男女下面插进去视频免费观看 | 亚洲av成人精品一二三区| 内地一区二区视频在线| 亚洲国产欧美在线一区| 久久久精品免费免费高清| 在线观看国产h片| 亚洲成av片中文字幕在线观看 | 国产老妇伦熟女老妇高清| 日韩av不卡免费在线播放| 免费看av在线观看网站| 国产成人91sexporn| 天天影视国产精品| 久久影院123| 国产成人精品福利久久| 日本欧美国产在线视频| 18在线观看网站| 婷婷成人精品国产| 七月丁香在线播放| 久久精品aⅴ一区二区三区四区 | 国产精品久久久久成人av| 久久免费观看电影| 欧美日韩亚洲高清精品| 免费不卡的大黄色大毛片视频在线观看| 日韩电影二区| 国产成人av激情在线播放| 免费av不卡在线播放| 免费不卡的大黄色大毛片视频在线观看| 日韩制服丝袜自拍偷拍| 少妇的逼好多水| 国产成人一区二区在线| 丰满少妇做爰视频| 日韩人妻精品一区2区三区| 热re99久久精品国产66热6| 亚洲欧美成人综合另类久久久| 午夜福利视频在线观看免费| av一本久久久久| 免费大片黄手机在线观看| 午夜福利影视在线免费观看| 1024视频免费在线观看| 天天躁夜夜躁狠狠躁躁| 2018国产大陆天天弄谢| 国产成人一区二区在线| 精品久久久精品久久久| 婷婷色麻豆天堂久久| 久久久久久人人人人人| 中文精品一卡2卡3卡4更新| 欧美激情 高清一区二区三区| 国产成人免费无遮挡视频| 一级毛片黄色毛片免费观看视频| 韩国av在线不卡| 搡女人真爽免费视频火全软件| 国产色婷婷99| 午夜免费鲁丝| 日本-黄色视频高清免费观看| 免费黄色在线免费观看| 亚洲av成人精品一二三区| 亚洲三级黄色毛片| 色视频在线一区二区三区| 九九在线视频观看精品| 麻豆乱淫一区二区| 国产成人91sexporn| 成人午夜精彩视频在线观看| 免费观看无遮挡的男女| 亚洲欧美一区二区三区黑人 | 亚洲,欧美,日韩| 卡戴珊不雅视频在线播放| 午夜福利网站1000一区二区三区| 国产无遮挡羞羞视频在线观看| 色婷婷av一区二区三区视频| 欧美变态另类bdsm刘玥| 99久久综合免费| 中文天堂在线官网| 在线亚洲精品国产二区图片欧美| 亚洲精品色激情综合| 久久av网站| 最后的刺客免费高清国语| 亚洲精品乱码久久久久久按摩| 久久久久久久大尺度免费视频| 大码成人一级视频| 国产探花极品一区二区| 色婷婷久久久亚洲欧美| 日本av免费视频播放| 国产高清三级在线| 国产成人av激情在线播放| 中文字幕人妻丝袜制服| 建设人人有责人人尽责人人享有的| 搡女人真爽免费视频火全软件| 日韩一区二区视频免费看| 久久 成人 亚洲| av超薄肉色丝袜交足视频| 亚洲全国av大片| 亚洲精品国产一区二区精华液| 国产欧美日韩精品亚洲av| 老司机深夜福利视频在线观看| 日韩大码丰满熟妇| 精品人妻1区二区| 中文字幕最新亚洲高清| 久久中文字幕人妻熟女| 丰满饥渴人妻一区二区三| 国产成人免费观看mmmm| 国产精品免费一区二区三区在线 | 99在线人妻在线中文字幕 | 一区在线观看完整版| 天天躁狠狠躁夜夜躁狠狠躁| 夜夜躁狠狠躁天天躁| 亚洲国产精品一区二区三区在线| 12—13女人毛片做爰片一| 老司机午夜福利在线观看视频| 中文字幕人妻丝袜一区二区| www日本在线高清视频| 亚洲一卡2卡3卡4卡5卡精品中文| 精品国产一区二区三区四区第35| 日日爽夜夜爽网站| 免费人成视频x8x8入口观看| 成人国产一区最新在线观看| 高清av免费在线| 在线免费观看的www视频| 色综合婷婷激情| a在线观看视频网站| 新久久久久国产一级毛片| 9色porny在线观看| 亚洲精品中文字幕一二三四区| 国产成人欧美| 成年女人毛片免费观看观看9 | 老司机午夜福利在线观看视频| 精品人妻熟女毛片av久久网站| 亚洲一区中文字幕在线| 无人区码免费观看不卡| 亚洲精品一二三| 搡老熟女国产l中国老女人| 国产精品成人在线| 美女午夜性视频免费| 久久 成人 亚洲| 视频在线观看一区二区三区| 新久久久久国产一级毛片| 精品一区二区三区av网在线观看| 午夜亚洲福利在线播放| 每晚都被弄得嗷嗷叫到高潮| 国产精品欧美亚洲77777| 黑丝袜美女国产一区| 久久久精品区二区三区| 色综合欧美亚洲国产小说| 久久久久久久午夜电影 | 在线免费观看的www视频| 久久精品亚洲熟妇少妇任你| 99香蕉大伊视频| 在线永久观看黄色视频| 国产成+人综合+亚洲专区| 欧美乱妇无乱码| 午夜福利欧美成人| 一区二区三区国产精品乱码| 男人的好看免费观看在线视频 | 一级片免费观看大全| 人人妻,人人澡人人爽秒播| xxx96com| 99国产精品一区二区蜜桃av | 免费av中文字幕在线| 99国产综合亚洲精品| 身体一侧抽搐| 黑人猛操日本美女一级片| 欧美激情高清一区二区三区| 9191精品国产免费久久| 成人手机av| 亚洲片人在线观看| 精品久久久精品久久久| 久久久国产成人免费| 少妇被粗大的猛进出69影院| 好看av亚洲va欧美ⅴa在| 69精品国产乱码久久久| 在线永久观看黄色视频| 国产免费男女视频| 中文字幕人妻熟女乱码| 1024香蕉在线观看| 国产精品乱码一区二三区的特点 | 麻豆国产av国片精品| 亚洲精品久久成人aⅴ小说| 91九色精品人成在线观看| 如日韩欧美国产精品一区二区三区| 欧美黑人精品巨大| 韩国av一区二区三区四区| 69精品国产乱码久久久|