畢洪波 洪慶成 謝春麗 孫磊
摘要:學(xué)生的課堂表情常常反映了學(xué)生對(duì)知識(shí)的理解和掌握情況,這對(duì)分析學(xué)生的學(xué)習(xí)狀態(tài)是非常有幫助的。然而,這些微妙的表情變化往往不能被及時(shí)發(fā)現(xiàn)和引起關(guān)注。鑒于此,作者構(gòu)建了深度學(xué)習(xí)標(biāo)簽識(shí)別模型,利用采集的課堂圖像,實(shí)時(shí)捕捉每個(gè)學(xué)生的課堂表情,并分析學(xué)生的表情特征,對(duì)表情特征進(jìn)行標(biāo)識(shí)和分類,從而為線下、線上教學(xué)提供有價(jià)值的教學(xué)反饋。
關(guān)鍵詞:深度學(xué)習(xí);微表情識(shí)別;教學(xué)分析;學(xué)習(xí)狀態(tài)分析;教學(xué)反饋
中圖分類號(hào):TP391.1? 文獻(xiàn)標(biāo)識(shí)碼:A? 論文編號(hào):1674-2117(2022)05-0091-05
● 引言
目前,課堂教學(xué)多是以班級(jí)為單位,在一個(gè)固定的時(shí)間對(duì)幾十名學(xué)生進(jìn)行教學(xué),但學(xué)生存在個(gè)體差異,教師很難照顧到每個(gè)學(xué)生的學(xué)習(xí)情況,也無(wú)法及時(shí)了解學(xué)生的課堂學(xué)習(xí)狀態(tài)。
學(xué)生在課堂上的動(dòng)作、微妙表情,都能體現(xiàn)出學(xué)生的聽課效果。盡管這些也能被有經(jīng)驗(yàn)的教師偶爾捕捉到和有效解讀,但是要捕獲大多數(shù)學(xué)生的表情、動(dòng)作并分析其聽課效果還是非常困難的。近年來(lái),隨著深度學(xué)習(xí)算法的日漸成熟,借助智能化技術(shù)改進(jìn)學(xué)習(xí)行為、變革傳統(tǒng)課堂、提高教育教學(xué)質(zhì)量已經(jīng)成為一種必然趨勢(shì),這也為有效改善教學(xué)環(huán)節(jié)、提高教學(xué)質(zhì)量提供了新的科學(xué)方法。[1]
筆者利用深度學(xué)習(xí)的方法,通過圖像識(shí)別等技術(shù)實(shí)時(shí)捕獲學(xué)生的微妙課堂表情[2],實(shí)時(shí)分析學(xué)生課堂表情,以揭示學(xué)生對(duì)課堂知識(shí)的掌握情況。該方法實(shí)時(shí)采集課堂學(xué)生的圖像,建立相應(yīng)的算法模型,利用深度學(xué)習(xí)的方法分析學(xué)生的課堂表情特征,并對(duì)相應(yīng)的表情分類標(biāo)識(shí),以反映學(xué)生對(duì)課堂知識(shí)的學(xué)習(xí)情況,從而及時(shí)得到有價(jià)值的教學(xué)反饋。
● 相關(guān)工作
從心理學(xué)角度看,人的面部表情是情感信息表達(dá)的一種主要途徑,是情感最真實(shí)、最直接的反映,可以折射人的不同情感狀態(tài),如高興、悲傷、憤怒、恐懼、驚訝、厭惡等。[3-4]已有研究者嘗試把表情識(shí)別引入教育教學(xué)領(lǐng)域,用于分析學(xué)生的學(xué)習(xí)狀態(tài)。馮滿堂等人將表情識(shí)別技術(shù)引入傳統(tǒng)智能網(wǎng)絡(luò)教學(xué)系統(tǒng)中,實(shí)現(xiàn)了網(wǎng)絡(luò)環(huán)境下兼顧認(rèn)知和情感兩方面的個(gè)性化教學(xué),從而提高網(wǎng)絡(luò)環(huán)境下的教學(xué)效率。[5]程萌萌等人構(gòu)建了包括教師、學(xué)生、課程、情感四部分的智能教學(xué)系統(tǒng)結(jié)構(gòu)模型,利用表情識(shí)別與視線跟蹤技術(shù)實(shí)現(xiàn)情感模塊的反饋,為網(wǎng)絡(luò)學(xué)習(xí)中情感反饋機(jī)制的發(fā)展提供技術(shù)支持。[6]孫波等人通過將個(gè)體的人臉特征與表情特征相分離,排除無(wú)關(guān)因素對(duì)表情識(shí)別效果的干擾,提高了表情識(shí)別的準(zhǔn)確性,并將此應(yīng)用在師生情感交互系統(tǒng)上,成功實(shí)現(xiàn)了基于面部表情的學(xué)習(xí)者情感識(shí)別及情感干預(yù)功能。[7]詹澤慧等人開發(fā)的基于智能Agent的遠(yuǎn)程學(xué)習(xí)者情感與認(rèn)知識(shí)別模型,結(jié)合了表情識(shí)別和眼動(dòng)追蹤技術(shù),提高了遠(yuǎn)程環(huán)境下學(xué)習(xí)者狀態(tài)判斷的準(zhǔn)確率,改進(jìn)了Agent對(duì)學(xué)習(xí)者的情感和認(rèn)知支持。[8]楊金朋等人將人臉表情識(shí)別算法應(yīng)用到在線學(xué)習(xí)平臺(tái),對(duì)人臉表情數(shù)據(jù)進(jìn)行實(shí)時(shí)收集和情感狀態(tài)計(jì)算,通過數(shù)據(jù)分析在線學(xué)習(xí)者的臉部表情會(huì)在一定程度上反映出其當(dāng)前的學(xué)習(xí)狀態(tài),為學(xué)習(xí)者提供個(gè)性化的學(xué)習(xí)服務(wù)。[9]
以上列出的研究方法多數(shù)是屬于實(shí)證研究范疇[10-14],而隨著計(jì)算機(jī)視覺領(lǐng)域的快速崛起,利用人臉識(shí)別技術(shù)已經(jīng)在某些領(lǐng)域,如人臉打卡、智能門禁、刑偵辦案、安全駕駛等領(lǐng)域產(chǎn)生了有效應(yīng)用。但在教育領(lǐng)域,利用計(jì)算機(jī)技術(shù)識(shí)別學(xué)生課堂表情的研究還較少。周建國(guó)等人通過智能手機(jī)采集到課堂上學(xué)生上課時(shí)不同時(shí)刻的面部表情圖像,提出用卷積神經(jīng)網(wǎng)絡(luò)與迭代決策樹融合的方法提取面部圖像特征,根據(jù)表情將其分為專心與不專心兩類樣本。[15]鐘志鵬等人提出了多核學(xué)習(xí)特征融合的人臉表情識(shí)別,并在學(xué)生聽課表情庫(kù)上做了實(shí)驗(yàn)。[16]已有的課堂面部表情識(shí)別方法采用手工提取特征,隨著參數(shù)越來(lái)越多,模型訓(xùn)練很容易陷入過擬合的狀態(tài)。而隨著深度學(xué)習(xí)計(jì)算能力的大幅度提高,可獲得的訓(xùn)練數(shù)據(jù)量迅猛增加,尤其是卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別方面的表現(xiàn),使得課堂表情識(shí)別更加科學(xué)可行。[17-20]
● 表情識(shí)別系統(tǒng)
1.系統(tǒng)實(shí)現(xiàn)框架
系統(tǒng)通過學(xué)生對(duì)不同知識(shí)點(diǎn)的微表情變化,分析學(xué)生的課堂學(xué)習(xí)狀態(tài),從而為教師提供有價(jià)值的教學(xué)反饋,優(yōu)化教學(xué)過程和教學(xué)方法。系統(tǒng)主要包括數(shù)據(jù)收集和預(yù)處理、表情識(shí)別模型訓(xùn)練以及基于該深度學(xué)習(xí)模型設(shè)計(jì)的表情識(shí)別模塊。
為了獲取課堂學(xué)生的面部特征,進(jìn)而識(shí)別學(xué)生表情,設(shè)計(jì)了人臉表情識(shí)別系統(tǒng)的實(shí)現(xiàn)框架(如圖1)。本設(shè)計(jì)主要分兩部分功能:人臉識(shí)別和表情識(shí)別。首先收集人臉數(shù)據(jù)集和用于訓(xùn)練的表情數(shù)據(jù)集。其次采用線上API的方式,實(shí)時(shí)采集課堂上學(xué)生的人臉,并將采集到的人臉數(shù)據(jù)按照指定要求上傳到服務(wù)端;然后將采集到的人臉數(shù)據(jù)劃分為測(cè)試集和訓(xùn)練集,將訓(xùn)練數(shù)據(jù)輸入到CNN模型進(jìn)行訓(xùn)練,當(dāng)一輪訓(xùn)練結(jié)束后,利用測(cè)試集對(duì)訓(xùn)練結(jié)果進(jìn)行測(cè)試,并評(píng)估表情識(shí)別的準(zhǔn)確率,如果準(zhǔn)確率沒有達(dá)到預(yù)期,則調(diào)整參數(shù)繼續(xù)訓(xùn)練,直到找到最優(yōu)解并保存解集。最后,針對(duì)人臉識(shí)別和表情識(shí)別的軟件接口,設(shè)計(jì)相應(yīng)的用戶服務(wù)接口,用于接收用戶輸入的參數(shù),并將分析結(jié)果反饋給用戶。
2.數(shù)據(jù)預(yù)處理
對(duì)人臉識(shí)別和表情識(shí)別數(shù)據(jù)集采用不同的方法進(jìn)行預(yù)處理。由于本設(shè)計(jì)中人臉識(shí)別數(shù)據(jù)集的數(shù)量并不大,所以主要采取人工篩選的方法篩掉內(nèi)存過大、亮度過高或者過暗、遮擋過多等噪聲大的圖片。對(duì)于表情識(shí)別fer2013數(shù)據(jù)集,由于它已經(jīng)是標(biāo)準(zhǔn)數(shù)據(jù)集,所以沒有再做關(guān)于圖片格式的相關(guān)預(yù)處理。但是為了進(jìn)一步優(yōu)化模型性能,深度學(xué)習(xí)需要規(guī)模較大的數(shù)據(jù)。雖然fer2013數(shù)據(jù)集已經(jīng)有了2萬(wàn)多的數(shù)據(jù)量,但是實(shí)際情況反映這并不夠。因此,采用了數(shù)據(jù)增強(qiáng)技術(shù),即一種通過讓有限的數(shù)據(jù)產(chǎn)生更多的等價(jià)數(shù)據(jù)來(lái)人工擴(kuò)展訓(xùn)練數(shù)據(jù)集的技術(shù)。它是克服訓(xùn)練數(shù)據(jù)不足的有效手段。
3.人臉識(shí)別模型
由于現(xiàn)實(shí)生活中個(gè)人收集人臉數(shù)據(jù)集的難度大,如果自己訓(xùn)練一定達(dá)不到理想的準(zhǔn)確度,所以本設(shè)計(jì)采用了騰訊云的機(jī)器學(xué)習(xí)API的方式,以達(dá)成更為理想的識(shí)別率。騰訊云人臉識(shí)別API是基于騰訊優(yōu)圖的人臉分析技術(shù),主要提供了人臉檢測(cè)與分析、五官定位、人臉對(duì)比、人員庫(kù)管理、人臉驗(yàn)證、人臉?biāo)阉鞯裙δ?。本設(shè)計(jì)中主要用到了該接口的人員庫(kù)管理以及人臉?biāo)阉鞴δ埽⑷藛T庫(kù)的好處在于將各個(gè)不同的數(shù)據(jù)集隔離開來(lái),這樣既便于區(qū)分,也便于查找比對(duì),當(dāng)數(shù)據(jù)量足夠大時(shí)能大大提升查詢效率。本設(shè)計(jì)采用的是Python SDK的調(diào)用方式,能高效地完成工作。
4.表情識(shí)別模型
實(shí)驗(yàn)選擇了mini_Xception和MobilenetV2兩種輕量級(jí)模型分別進(jìn)行表情識(shí)別訓(xùn)練。mini_Xception模型是卷積網(wǎng)絡(luò)的改進(jìn)模型,增加了深度分離卷積(Separable Convolution)算法,此算法思想是將傳統(tǒng)的卷積運(yùn)算分解為逐通道卷積與逐點(diǎn)卷積兩步進(jìn)行。假設(shè)輸入層為一張4*64像素、3通道的圖片,對(duì)于常規(guī)卷積運(yùn)算,經(jīng)過一個(gè)包含4個(gè)過濾器的卷積層,每個(gè)分類器包含3個(gè)3*3的Kernel,最終輸出4個(gè)特征圖,且尺寸與輸入層相同,那么卷積層參數(shù)數(shù)量為108個(gè)。對(duì)于深度分離卷積運(yùn)算,首先進(jìn)行逐通道卷積,與常規(guī)卷積不同的是卷積完全在二維平面上進(jìn)行,且分類器數(shù)量通道數(shù)相同,所以一個(gè)3通道圖像運(yùn)算后生成了3個(gè)特征,參數(shù)個(gè)數(shù)只有27個(gè),然后特征圖在深度方向上進(jìn)行加權(quán)組合,生成新的特征圖,有幾個(gè)分類器就有幾個(gè)特征圖,這一步的參數(shù)個(gè)數(shù)為12。從以上分析可以看出可分離卷積的參數(shù)數(shù)量為27+12=29個(gè),約為常規(guī)卷積的三分之一。因此,在參數(shù)量相同的情況下,采用可分離卷積的神經(jīng)網(wǎng)絡(luò)層數(shù)可以更深,能獲得更好的性能。MobilenetV2模型是Google針對(duì)手機(jī)等嵌入式設(shè)備提出的一種輕量級(jí)的深層神經(jīng)網(wǎng)絡(luò),核心思想也是深度可分離卷積,此處不再贅述。
● 實(shí)驗(yàn)與分析
1.數(shù)據(jù)集簡(jiǎn)介
(1)人臉識(shí)別數(shù)據(jù)集
首先,本系統(tǒng)采集筆者所在的智慧教育學(xué)院17智(71)班的學(xué)生的照片作為人臉識(shí)別數(shù)據(jù)集。該數(shù)據(jù)集包含了40個(gè)人,每個(gè)人有15張左右的照片,其中5張上傳至騰訊云,其余為測(cè)試數(shù)據(jù)。本設(shè)計(jì)的人臉識(shí)別功能的實(shí)現(xiàn)主要依賴于騰訊云的人臉識(shí)別API,主要用到了該接口的人員庫(kù)管理以及人臉?biāo)阉鞴δ堋?/p>
(2)表情數(shù)據(jù)集與數(shù)據(jù)增強(qiáng)
本設(shè)計(jì)選擇的fer2013數(shù)據(jù)集是Kaggle為了舉辦人臉表情識(shí)別比賽而公開的。fer2013數(shù)據(jù)集一共包含了35000多張表情圖片,包含生氣、厭惡、害怕、高興、驚奇、中立七種類別的表情圖像,其中有近29000張訓(xùn)練圖片。
眾所周知,在機(jī)器學(xué)習(xí)中,數(shù)據(jù)集可以說(shuō)是最難解決的問題之一,其難處不在于數(shù)據(jù)集的優(yōu)化,而在于數(shù)據(jù)量。雖然fer2013數(shù)據(jù)集已經(jīng)有了20000多的數(shù)據(jù)量,但并不夠。所以,筆者對(duì)fer2013數(shù)據(jù)集進(jìn)行了數(shù)據(jù)增強(qiáng),增強(qiáng)過后的數(shù)據(jù)集可以從原來(lái)的28000多增加到80000多,而七個(gè)表情準(zhǔn)確度則平均上升了20%左右。
2.實(shí)驗(yàn)設(shè)計(jì)和分析
(1)實(shí)驗(yàn)設(shè)計(jì)
本設(shè)計(jì)的深度學(xué)習(xí)框架選擇了谷歌Tensorflow+Keras以及百度Paddlepaddle兩者對(duì)比實(shí)現(xiàn)。由于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行表情識(shí)別的準(zhǔn)確率沒有達(dá)到最優(yōu),所以本設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)算法選擇了MobilenetV2和mini_Xception兩種模型進(jìn)行訓(xùn)練,提高了表情識(shí)別的準(zhǔn)確率。兩者都是新出的輕量級(jí)模型,運(yùn)用到了深度分離卷積算法,在很大程度上簡(jiǎn)化了運(yùn)算量,從而減少了模型訓(xùn)練所需要的時(shí)間。就最終實(shí)測(cè)的結(jié)果而言,Tensorflow+Keras+mini_Xception的組合更加高效準(zhǔn)確。
(2)實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)結(jié)果如上表所示。MobilenetV2和mini_Xception兩個(gè)模型在測(cè)試數(shù)據(jù)集上的準(zhǔn)確度都超過了70%,已經(jīng)達(dá)到了相等條件下的最優(yōu)。實(shí)驗(yàn)過程中筆者發(fā)現(xiàn),mini_Xception模型對(duì)高興和驚訝這兩種表情的正確識(shí)別率最高,分別達(dá)到87%和77%,識(shí)別正確率最低的為害怕表情,只有42%。圖2和圖3分別是對(duì)GUI系統(tǒng)的展示,通過自定義圖片和調(diào)用實(shí)時(shí)攝像頭進(jìn)行分析的結(jié)果。圖2是加載圖片的人臉識(shí)別結(jié)果和表情分類結(jié)果,圖3是實(shí)時(shí)捕獲攝像頭并識(shí)別的結(jié)果,雖然該學(xué)生并不在人臉庫(kù)中,但仍然能夠識(shí)別其表情狀態(tài)。
最后,關(guān)于表情與學(xué)生課堂學(xué)習(xí)效率的關(guān)系,筆者對(duì)錄入系統(tǒng)的學(xué)生進(jìn)行了課后問卷調(diào)查。調(diào)查結(jié)果顯示,本系統(tǒng)對(duì)人臉的識(shí)別和表情識(shí)別的結(jié)果基本準(zhǔn)確。在調(diào)查報(bào)告中,表情為中立的學(xué)生對(duì)知識(shí)的掌握效率要高于表現(xiàn)為其他的幾種表情的學(xué)生;其中表現(xiàn)為生氣、害怕、厭惡的學(xué)生對(duì)知識(shí)的掌握效率低于平均水平。由此可見,表情與學(xué)生對(duì)知識(shí)掌握效率有著一定的聯(lián)系。所以,可以通過對(duì)學(xué)生的面部表情特征的實(shí)時(shí)分析得到班級(jí)學(xué)生對(duì)當(dāng)前知識(shí)掌握的總體情況,從而為線下、線上教學(xué)提供有價(jià)值的教學(xué)反饋數(shù)據(jù),幫助教師進(jìn)行針對(duì)性的教學(xué)方案修改,提高課堂效率。
● 結(jié)語(yǔ)
本設(shè)計(jì)作為“學(xué)習(xí)者的微表情研究”課題的一部分,在一定的理論基礎(chǔ)上,主要承擔(dān)三方面工作:其一是搜尋可用于實(shí)際使用和訓(xùn)練的數(shù)據(jù)集,包括人臉數(shù)據(jù)庫(kù)和表情識(shí)別數(shù)據(jù)集;其二是選擇高效便捷的實(shí)現(xiàn)方案,建立準(zhǔn)確度更高的模型并保存訓(xùn)練結(jié)果;其三是在前兩項(xiàng)工作完成的情況下設(shè)計(jì)出直觀、可用的交互式應(yīng)用程序,方便測(cè)試與使用。本設(shè)計(jì)基本完成了以上任務(wù),并采用了許多成熟且實(shí)用的工具和模塊,如PyQt5、Python-OpenCV等。
參考文獻(xiàn):
[1]鄭慶華,董博,錢步月,等.智慧教育研究現(xiàn)狀與發(fā)展趨勢(shì)[J].計(jì)算機(jī)研究與發(fā)展,2019,56(01):1-16.
[2]鄭怡文,陳紅星,白云暉.基于大數(shù)據(jù)在課堂教學(xué)中對(duì)學(xué)生精準(zhǔn)關(guān)注的實(shí)驗(yàn)研究[J].現(xiàn)代教育科學(xué),2016(02):54-57.
[3]侯洪濤.一種課堂環(huán)境下學(xué)生表情識(shí)別系統(tǒng)的研究[D].北京:北京工業(yè)大學(xué),2015.
[4]劉三女牙,劉智,高菊,等.慕課環(huán)境下學(xué)習(xí)者學(xué)習(xí)行為差異性分析研究[J].電化教育研究,2016(10):57-63.
[5]馮滿堂,馬青玉,王瑞杰.基于人臉表情識(shí)別的智能網(wǎng)絡(luò)教學(xué)系統(tǒng)研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2011(06):193-196.
[6]程萌萌,林茂松,王中飛.應(yīng)用表情識(shí)別與視線跟蹤的智能教學(xué)系統(tǒng)研究[J].中國(guó)遠(yuǎn)程教育,2013(03):59-64.
[7]孫波,劉永娜,陳玖冰,等.智慧學(xué)習(xí)環(huán)境中基于面部表情的情感分析[J].現(xiàn)代遠(yuǎn)程教育研究,2015(02):96-103.
[8]詹澤慧.基于智能Agent的遠(yuǎn)程學(xué)習(xí)者情感與認(rèn)知識(shí)別模型——眼動(dòng)追蹤與表情識(shí)別技術(shù)支持下的耦合[J].現(xiàn)代遠(yuǎn)程教育研究,2013(05):100-105.
[9]楊金朋,薛耀鋒,李佳璇,等.基于人臉表情識(shí)別的在線學(xué)習(xí)情感計(jì)算研究[J].中國(guó)教育技術(shù)裝備,2017,18(35):35-43.
[10]李勇帆,李里程.情感計(jì)算在網(wǎng)絡(luò)遠(yuǎn)程教育系統(tǒng)中的應(yīng)用:功能、研究現(xiàn)狀及關(guān)鍵問題[J].現(xiàn)代遠(yuǎn)程教育研究,2013(02):100-106.
[11]晉欣泉,王林麗,楊現(xiàn)民.基于大數(shù)據(jù)的在線學(xué)習(xí)情緒測(cè)量模型構(gòu)建[J].現(xiàn)代教育技術(shù), 2016(12):5-11.
[12]蘇耶亞塔·蘭尼.用以提升教學(xué)效果的情感分析系統(tǒng)[J].計(jì)算科學(xué)評(píng)論,2017,6(01):34-41.
[13]單存杰.教室場(chǎng)景中學(xué)生定位與身份識(shí)別[D].武漢:華中師范大學(xué),2016.
[14]韓麗,李洋,周子佳,等.課堂環(huán)境中基于面部表情的教學(xué)效果分析[J].現(xiàn)代遠(yuǎn)程教育研究,2017(04):97-103+112.
[15]周建國(guó),唐東明,彭爭(zhēng),等.基于卷積神經(jīng)網(wǎng)絡(luò)的課堂表情分析軟件研究與實(shí)現(xiàn)[J].成都信息工程大學(xué)學(xué)報(bào),2017,32(05):508-512.
[16]鐘志鵬,張立保.基于多核學(xué)習(xí)特征融合的人臉表情識(shí)別[J].計(jì)算機(jī)應(yīng)用,2015,35(S2):245-249.
[17]Zhang T,Zheng W,Cui Z,Zong Y,Yan J and Yan K. A Deep Neural Network-Driven Feature Learning Method for Multi-view Facial Expression Recognition[J].IEEE Transactions on Multimedia,2016,18(12):2528-2536.
[18]Li S and Deng W. Reliable Crowdsourcing and Deep Locality-Preserving Learning for Unconstrained Facial Expression Recognition[J].IEEE Transactions on Image Processing,2019,28(01):356-370.
[19]Rao Y, Lu J and Zhou J.Attention-Aware Deep Reinforcement Learning for Video Face Recognition[Z].Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV),Venice,2017:3951-3960.
[20]Arriaga O,Ploger P G.,Valdenegro M.Real-time Convolutional Neural Networks for Emotion and Gender Classification[C].ICRA,2017(10).
作者簡(jiǎn)介:畢洪波,男,徐州市第二中學(xué)教師,徐州教育督導(dǎo)室專職督學(xué),研究方向?yàn)榻逃畔⒒?謝春麗,通訊作者,女,副教授,研究方向?yàn)榻逃悄芑?洪慶成,男,江蘇師范大學(xué)本科生;孫磊,男,江蘇師范大學(xué)本科生。
基金項(xiàng)目:江蘇省高等學(xué)校大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(202010320035Z),教育部產(chǎn)學(xué)合作協(xié)同育人項(xiàng)目(d2a33dac-9bb7-4408-a778-19fbc71d68de)。
3797500589292