何旭鑫,吳建平,2,3,余 詠,高雪豪,韋 杰
(1.云南大學(xué) 信息學(xué)院,云南 昆明 650504;2.云南省電子計(jì)算中心,云南 昆明 650223;3.云南省高校數(shù)字媒體技術(shù)重點(diǎn)實(shí)驗(yàn)室,云南 昆明 650223)
合成孔徑雷達(dá)(SAR)是一種雷達(dá),最適合于艦船探測,因?yàn)榧词乖谶h(yuǎn)離觀測目標(biāo)的情況下,其分辨率也是恒定的,在軍用和民用領(lǐng)域?qū)ε灤w機(jī)、車輛目標(biāo)的監(jiān)控具有重要作用[1]。因此,利用SAR圖像研究艦船的目標(biāo)檢測已經(jīng)成為國內(nèi)外研究的熱點(diǎn)[2]。比如黑海艦船,橋梁被攻擊,波羅的海的北溪天然氣管道附近的相關(guān)船只監(jiān)測等。中國是一個(gè)海防大國,擁有漫長的國界線,為了更好地管理海上秩序,因此需要不斷提升艦船檢測準(zhǔn)確性。
隨著互聯(lián)網(wǎng)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)技術(shù)在各個(gè)領(lǐng)域不斷發(fā)展,尤其是在SAR圖像艦船目標(biāo)檢測領(lǐng)域的不斷應(yīng)用,使得在檢測艦船時(shí)的檢測效果不斷提升。目前在深度學(xué)習(xí)方向,主流的目標(biāo)算法分為兩類:一類是以R-CNN(Regions with Convolutional Neural Network features)為代表的二階段算法,但是這類代表的算法速度比較慢,與此對應(yīng)在研究艦船目標(biāo)檢測時(shí)不能滿足實(shí)時(shí)性的要求;另一類是以SSD(Single ShotMultiBox Detector)和YOLO(You Only Look Once)為代表的一階段算法,這種為代表的目標(biāo)檢測算法雖然在速度上勉強(qiáng)達(dá)到艦船檢測的要求,但是在艦船數(shù)據(jù)集上的表現(xiàn)并不好,效果比較差。
Wei等[3]公開了HRSID艦船數(shù)據(jù)集,該數(shù)據(jù)集極大地豐富了SAR艦船領(lǐng)域的數(shù)據(jù),使得該領(lǐng)域的深度學(xué)習(xí)算法得到了提升。Kang (2019)使用fast-RCNN獲得初始船舶檢測結(jié)果,然后采用自適應(yīng)的閾值報(bào)警率調(diào)整最終結(jié)果[4],但是這種方法在復(fù)雜場景下的識(shí)別準(zhǔn)確率不高,就像復(fù)雜海岸線和港口處就并不能很好地識(shí)別。譚顯東等[5]重新考慮了檢測框的長和寬,通過改變這兩個(gè)參數(shù)的定義重新對損失函數(shù)進(jìn)行了優(yōu)化,并且在主干網(wǎng)絡(luò)中結(jié)合坐標(biāo)注意力機(jī)制,實(shí)現(xiàn)對艦船目標(biāo)檢測。文獻(xiàn)[6]提出了一種專門用于SAR船舶檢測的密集連接DetNet(DDNet),在主干子網(wǎng)絡(luò)中,使用堆疊卷積層而不是大的下采樣,以使其更適合于小型船舶檢測。在預(yù)測子網(wǎng)絡(luò)中,使用密集連接來融合不同尺度的特征,使其能夠更好地處理多尺度船舶檢測。文獻(xiàn)[7]先采用IoU(Intersection over Union) K-means算法解決極寬比問題,然后用IoU K-means作為預(yù)處理步驟,從適合船舶檢測的數(shù)據(jù)集中聚類出一組縱橫比。其次,在網(wǎng)絡(luò)中嵌入了軟閾值注意模塊(STA)來抑制噪聲和復(fù)雜背景的影響。文獻(xiàn)[8]在無錨框檢測器FCOS[9]的基礎(chǔ)上設(shè)計(jì)特征平衡和優(yōu)化網(wǎng)絡(luò),并結(jié)合注意力機(jī)制引導(dǎo)金字塔網(wǎng)絡(luò)不同層級特征的提取。
為了更好地解決復(fù)雜SAR圖像對小目標(biāo)艦船的識(shí)別能力和降低漏檢率,該文是在主干網(wǎng)絡(luò)中添加CBAM注意力機(jī)制,使用注意力機(jī)制來學(xué)習(xí)SAR圖像艦船目標(biāo)的特征。同時(shí)對于原來的特征金字塔模型FPN的結(jié)構(gòu)性進(jìn)行改變。首先,對于原來的FPN的三個(gè)檢測探頭更改為四個(gè)檢測探頭,增加了一個(gè)160*160的特征圖,提高對小目標(biāo)的檢測能力。然后,將原版的PANet替換為改進(jìn)的BiFPN[10],進(jìn)一步強(qiáng)化對復(fù)雜背景下的目標(biāo)特征提取。最后,選用SIoU[11]作為激活函數(shù),SIoU進(jìn)一步考慮了真實(shí)框和預(yù)測框之間的向量角度,重新定義相關(guān)損失函數(shù),實(shí)現(xiàn)高精度的定位。通過多組對比實(shí)驗(yàn),并對高密度小目標(biāo)艦船檢測和復(fù)雜環(huán)境下SAR圖像艦船目標(biāo)的檢測結(jié)果進(jìn)行分析,最終得出該算法在復(fù)雜背景下(見圖1)對艦船的目標(biāo)識(shí)別具有實(shí)用性和有效性。
YOLOv5目標(biāo)檢測算法主要由四部分構(gòu)成,整體結(jié)構(gòu)如圖2所示。第一部分輸入層,其中輸入圖像尺寸為640×640,是最基礎(chǔ)也是很重要的部分。第二部分為YOLOv5算法的主干網(wǎng)絡(luò),一共由10層組成,主要是由卷積模塊和C3模塊不斷堆疊形成的,作用是對輸入的SAR圖像中的艦船目標(biāo)進(jìn)行初步的特征提取。第三部分是特征融合模塊的PANet[12],通過自上而下的卷積路徑和自下而上的上采樣路徑相結(jié)合,將不同路徑下產(chǎn)生的相同大小的特征圖像互相融合,融合不同位置的語義信息,極大地豐富了圖像所包含的信息。第四部分為檢測層,檢測層中的主體部分就是三個(gè)檢測器,即利用基于網(wǎng)格的anchor在不同尺度的特征圖上進(jìn)行目標(biāo)檢測的過程,其結(jié)構(gòu)如圖3所示。
YOLOv5算法的Conv模塊是YOLOv5中最基礎(chǔ)的模塊,由Conv2d模塊、歸一化、SiLU激活函數(shù)組成。該激活函數(shù)具備無上界有下界、平滑、非單調(diào)的特性,可以有效地效抑制梯度消失現(xiàn)象。YOLOv5的檢測層存在三種不同尺度大小的特征圖,用于最終對不同尺度的分別檢測,YOLOv5算法能夠針對各個(gè)尺寸下的特點(diǎn),默認(rèn)采用非極大值抑制(NMS)算法。該文使用自適應(yīng)NMS自適應(yīng)地調(diào)整船舶密集布置和稀疏分布的非最大抑制(NMS)閾值,而YOLOv5則使用了自適應(yīng)錨框算法,根據(jù)不同類型的目標(biāo)數(shù)據(jù)集進(jìn)行自行改變,自適應(yīng)地計(jì)算訓(xùn)練集中的最佳錨框值[13]。
圖2 YOLOv5網(wǎng)絡(luò)架構(gòu)
圖3 YOLOv5各模塊結(jié)構(gòu)
計(jì)算機(jī)視覺的注意力機(jī)制的思想是通過尋找現(xiàn)有數(shù)據(jù)間的關(guān)聯(lián)性突出某些重要特征,不同的注意力機(jī)制具有相同的學(xué)習(xí)方式,都是在深度學(xué)習(xí)的訓(xùn)練過程中,通過前后向傳播,根據(jù)不同的目標(biāo)特征,更新權(quán)重。對于輸入的SAR艦船圖像,由于艦船目標(biāo)只在復(fù)雜的圖像中占很小一部分,大部分為復(fù)雜的港口背景信息,在卷積的過程中,SAR艦船特征圖像在不斷地縮小,迭代累積,最終導(dǎo)致一部分特征消失,形成冗余背景信息,從而使有些小目標(biāo)的艦船信息丟失,最終對小目標(biāo)艦船識(shí)別率不高。為此,該文使用一種卷積注意力模塊(Convolutional Block Attention Module,CBAM)[14]。
CBAM注意力機(jī)制是空間和通道結(jié)合的一種注意力機(jī)制,因?yàn)镾AR圖像中艦船屬于小目標(biāo),為了更加突出艦船的特征,就需要在相對較小的特征圖像上進(jìn)行特征學(xué)習(xí),訓(xùn)練注意力的權(quán)重,最終提升艦船檢測的準(zhǔn)確率。于是,該文在Backbone中的最后一個(gè)C3模塊后面添加CBAM模塊,讓注意力機(jī)制在此處重新學(xué)習(xí)艦船圖像的特征,隨后重新學(xué)習(xí)過的圖像通過SPPF[15],相比于SPP結(jié)構(gòu),將大的卷積核替換了多個(gè)數(shù)量的5×5卷積核,同樣擴(kuò)大網(wǎng)絡(luò)的感受野,使得運(yùn)算速度變快了。
(1)通道注意力模塊。
利用圖像特征之間的通道關(guān)系生成了新的通道特征圖,方法如圖4(a)。首先,原始的特征圖分別經(jīng)過平均池化(average-pooling)和最大池化(max-pooling)操作,生成兩個(gè)不同的特征,然后這兩個(gè)特征圖經(jīng)過共享模塊。隨后將產(chǎn)生的兩個(gè)特征進(jìn)行逐元素相加,通過Sigmoid函數(shù)激活得到通道注意力模塊的結(jié)果Mc(F)。最后一步,將輸入的原始圖像與Mc(F)相乘,生成一個(gè)與原圖一樣大小的特征圖像。CBAM的通道模塊計(jì)算公式為:
Mc(F)=σ(MLP(AvgPool(F))+
MLP(MaxPool(F)))=
(1)
(2)空間注意力模塊。
使用(1)中產(chǎn)生的特征圖生成空間注意力圖,方法如圖4(b)??臻g方向不變,在通道方向進(jìn)行平均池化和最大池化操作,將生成的兩個(gè)通道為1的特征拼接在一起,隨后將新特征經(jīng)過7×7的卷積和激活函數(shù)最終生成Ms(F)。最后一步,將輸入的原始圖像與Ms(F)相乘,生成一個(gè)與原圖一樣大小的特征圖像。CBAM的空間模塊計(jì)算公式為:
Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))=
(2)
圖4 CBAM注意力模塊
對于原版YOLOv5算法使用的是三尺度檢測,與此對應(yīng)的是三組對應(yīng)的預(yù)先設(shè)好的對照框,當(dāng)增加一個(gè)檢測層時(shí),就需要再新增一組對應(yīng)的Anchor。當(dāng)在輸入端輸入尺寸大小為640×640的圖像時(shí),經(jīng)過YOLOv5的主干網(wǎng)絡(luò)和特征融合模塊后,就可以在檢測層得到大小為80×80、40×40、20×20的特征圖。它們分別可以用來檢測大小在8×8以上的目標(biāo)、16×16以上的目標(biāo)、32×32以上的目標(biāo),這就導(dǎo)致了小尺寸的艦船目標(biāo)容易被忽略,造成漏檢。為了解決艦船目標(biāo)漏檢的情況,該文將在YOLOv5的第四部分檢測層做出改進(jìn),為了更好地檢測艦船,增加一個(gè)大尺度特征圖,通過計(jì)算可得出是160×160大小的檢測層。改進(jìn)后的特征融合結(jié)構(gòu)如圖5所示,不只是增加了一個(gè)大尺度檢測層,還對PANet進(jìn)行了替換,使用與四尺度架構(gòu)相匹配的改進(jìn)BiFPN結(jié)構(gòu),在18層之后又新加了卷積層和二倍上采樣層,再將來自第2層和20層的特征進(jìn)行BiFPN二特征融合,最后形成一個(gè)新的160×160特征檢測層。
為了更好更快速地融合圖像的特征信息,還使用了改進(jìn)的加權(quán)的雙向特征金字塔網(wǎng)絡(luò)。圖6展示了不同結(jié)構(gòu)的特征融合模塊。BiFPN是在PAN的基礎(chǔ)上進(jìn)行改進(jìn)的,同樣的特征融合模塊,但是改進(jìn)的BiFPN可以使不用層次的特征進(jìn)行融合。結(jié)構(gòu)如圖6(c)所示,但因?yàn)椴煌妮斎胩卣鲌D像有著不同的分辨率,因此不同尺寸的特征圖對最終的輸出圖片有著不一樣的側(cè)重信息。為了處理好每個(gè)輸入的比重,在進(jìn)行不同尺寸的特征融合時(shí),給予每個(gè)輸入不同的權(quán)重值,讓整個(gè)網(wǎng)絡(luò)通過訓(xùn)練學(xué)習(xí)各個(gè)不同輸入特征的重要性,通過前后項(xiàng)傳播得出權(quán)重,最終達(dá)到優(yōu)化算法的目的。BiFPN使用的是快速歸一化融合,直接用權(quán)值除以所有權(quán)值加和來進(jìn)行歸一化,同時(shí)將權(quán)值歸一化到[0,1]之間,提高了計(jì)算速度,如式(3)所示:
(3)
其中,wi≥0,通過ReLu激活來確保數(shù)值的穩(wěn)定,Ii表示輸入的特征。由于標(biāo)量權(quán)重是無界的,會(huì)導(dǎo)致訓(xùn)練不穩(wěn)定,所以使用softmax進(jìn)行歸一化。BiFPN雙向跨尺度連接的改進(jìn):對于圖中所示的中間一列特征圖像,對應(yīng)的是YOLOv5上采樣部分,該文刪除了只有一個(gè)特征輸入的節(jié)點(diǎn),這一部分節(jié)點(diǎn)只有從主干網(wǎng)絡(luò)提取的特征,對于特征融合金字塔作用不大,將該節(jié)點(diǎn)刪除之后不僅沒有很大影響,而且減少了運(yùn)算量,簡化了一部分網(wǎng)絡(luò)結(jié)構(gòu);然后是在主干網(wǎng)絡(luò)的不同大小的網(wǎng)絡(luò)提取層增加一條通往輸出的特征融合線,是為了增加原始特征信息在最后檢測層的比重,同時(shí)融合更多的特征信息;最后,將此模塊結(jié)合YOLOv5的特征融合不斷重復(fù)堆疊,實(shí)現(xiàn)不同層次的特征融合。
圖5 改進(jìn)的YOLOv5網(wǎng)絡(luò)架構(gòu)
改進(jìn)后的BiFPN將在Backbone提取的四種不同尺度的特征用作圖6(c)右邊所示的一列的輸入,其中P3、P4、P6、P7分別對應(yīng)改進(jìn)后的YOLOv5網(wǎng)絡(luò)中的2、4、6和10層,將它們按照不同的融合方式進(jìn)行不同尺度的加權(quán)融合,最后設(shè)置20×20、40×40、80×80、160×160四種不同尺度的特征分辨率的預(yù)測分支。
圖6 FPN、PANet和BiFPN結(jié)構(gòu)
YOLOv5模型的損失函數(shù)定義包含矩形框、置信度和分類概率這三個(gè)部分,矩形框表示目標(biāo)的大小以及精確位置,置信度表征所預(yù)測矩形框(簡稱預(yù)測框)的可信程度,取值范圍0~1,值越大說明該矩形框中越可能存在目標(biāo),分類概率表征目標(biāo)的類別,損失函數(shù)的作用為度量神經(jīng)網(wǎng)絡(luò)預(yù)測信息與期望信息的距離,預(yù)測信息越接近期望信息,損失函數(shù)值越小。由上述可以知道損失主要包含以下方面:矩形框損失、置信度損失、分類損失,其中CIoU Loss計(jì)算矩形框損失,置信度損失與分類損失都用BCE loss計(jì)算。CIoU Loss公式如式(4)所示:
(4)
其中,ρ2(b,bgt)代表預(yù)測框與目標(biāo)框兩個(gè)中心點(diǎn)的歐氏距離,d代表最小的真實(shí)框和預(yù)測框所組成的矩形對角線邊長,β是計(jì)算時(shí)用來平衡比例的參數(shù),s是用來衡量anchor框和目標(biāo)框之間比例的一致性,公式如式(5)、(6)。
(5)
(6)
由于CIoU沒有考慮到真實(shí)框與預(yù)測框之間的方向,導(dǎo)致收斂速度較慢,對此SIoU引入真實(shí)框和預(yù)測框之間的向量角度,重新定義相關(guān)損失函數(shù),具體包含四個(gè)部分:
(1)角度損失。
(7)
結(jié)構(gòu)如圖7(a)所示,其中ch為真實(shí)框和預(yù)測框中心點(diǎn)的高度差,σ為真實(shí)框和預(yù)測框中心點(diǎn)的距離。
(2)距離損失。
(8)
(3)形狀損失。
(9)
圖7 SIoU函數(shù)損失框圖
(4)IoU損失。
(10)
SIoU是一種新的損失函數(shù),重新定義了懲罰度量,考慮了期望回歸之間的向量夾角,提高了訓(xùn)練的速度和推理的準(zhǔn)確性。
HRSID數(shù)據(jù)集是電子科技大學(xué)在2020年1月發(fā)布的,HRSID是高分辨率SAR圖像中用于船舶檢測的數(shù)據(jù)集。該數(shù)據(jù)集共包含5 604張高分辨率SAR圖像和16 951個(gè)ship實(shí)例,在該數(shù)據(jù)集上使用了預(yù)訓(xùn)練權(quán)重,設(shè)置bitch size為8,訓(xùn)練250個(gè)Epoch,使用SGD優(yōu)化器進(jìn)行權(quán)重更新。
對于艦船數(shù)據(jù)集的評價(jià)指標(biāo)[16],選擇召回率(Recall)、精度(Precision)以及平均精度均值(mAP)。對于實(shí)驗(yàn)部分,為了顯示加入的CBAM注意力模塊、改進(jìn)BiFPN模塊和損失函數(shù)SIoU之間不同的效果,做了6組對照實(shí)驗(yàn),其結(jié)果如表1所示。為了在表中顯示最好的效果,特意用加粗的字體表示,還使用了“√”表示添加相應(yīng)模塊。
注意力機(jī)制模塊對SAR圖像有較大的影響,從上表可知只在主干網(wǎng)絡(luò)里面加入CBAM注意力,就可以加強(qiáng)對圖像特征的提取能力,有效地提升了精度P和mAP。這是因?yàn)樵嫉乃惴ㄌ卣魈崛∧芰Σ粡?qiáng),對復(fù)雜背景下的艦船小目標(biāo)容易漏檢。改變YOLOv5的損失函數(shù)為SIoU后,可以明顯發(fā)現(xiàn)精度P相比于原始算法提升了1.3百分點(diǎn),這是因?yàn)樵陬A(yù)測邊框回歸[17]時(shí),引入真實(shí)框和預(yù)測框之間的向量角度,重新定義相關(guān)損失函數(shù)考慮的因素更加綜合全面,對訓(xùn)練過程更加有利,最終的檢測精度更高。在加入改進(jìn)BiFPN模塊后,由原始的三尺度檢測變?yōu)樗某叨葯z測,增加了一個(gè)新的檢測層,更加注意SAR圖像的小目標(biāo)艦船,使得精度P、召回率R和mAP都得到了不同程度的提高。改進(jìn)6加入了CBAM注意力和改進(jìn)BiFPN,通過這兩個(gè)模塊的結(jié)合可以得知,主干網(wǎng)絡(luò)的注意力機(jī)制加強(qiáng)了網(wǎng)絡(luò)對艦船目標(biāo)特征的學(xué)習(xí)能力,而最后檢測層增加的大尺度檢測層則是增強(qiáng)對小目標(biāo)的檢測能力。同時(shí),主干網(wǎng)絡(luò)關(guān)注一些小特征信息,導(dǎo)致了精度P的下降,這時(shí)引入新的損失函數(shù)SIoU,可以改變真實(shí)框和預(yù)測框之間的定義關(guān)系,從而達(dá)到提升精度P的目的,最終成為該文改進(jìn)的YOLOv5目標(biāo)檢測算法。圖8展示了不同方法的mAP指標(biāo)曲線。
表1 各模塊結(jié)果對比
圖8 mAP曲線
為測試文中算法的效果,將復(fù)雜背景下的SAR艦船圖像輸入到不同的改進(jìn)網(wǎng)絡(luò)中和真實(shí)值進(jìn)行對比,實(shí)驗(yàn)效果如圖9所示。
圖9 實(shí)驗(yàn)效果
通過觀察上面的實(shí)驗(yàn)效果圖可以發(fā)現(xiàn),相比于原始算法,改進(jìn)6是加入CBAM和改進(jìn)BiFPN模塊,提升了對小目標(biāo)的檢測率,降低了漏檢率。但是同時(shí)面臨著艦船小目標(biāo)容易受到復(fù)雜背景的影響,導(dǎo)致一些海岸邊的建筑被識(shí)別成為艦船目標(biāo),從而造成較高的虛警率。為了改進(jìn)這種算法的缺點(diǎn),在改進(jìn)6的基礎(chǔ)上引入了新的損失函數(shù)SIoU,最終形成文中方法。從上面的圖片中可以明顯看出,該方法有效地區(qū)分了復(fù)雜背景與真實(shí)艦船,最終達(dá)到提升精準(zhǔn)率P和mAP的目的。
為了進(jìn)一步證明文中算法的優(yōu)越性,不僅與原YOLOv5算法進(jìn)行對比,而且還與一些經(jīng)典的目標(biāo)檢測算法Faster R-CNN、Cascade R-CNN、RetinaNet、SSD和一些最新的論文在同樣的HRSID數(shù)據(jù)集上進(jìn)行比較,評價(jià)指標(biāo)和表1一致。同時(shí)又加入了檢測時(shí)間Times,用來表示不同模型的檢測速度,最后得到不同模型的數(shù)據(jù),如表2所示。最好的結(jié)果使用加粗字體表示。
表2 實(shí)驗(yàn)對比
可以看出,文中方法在HRSID數(shù)據(jù)集上的各項(xiàng)指標(biāo)均最高。此外,由于在特征融合模塊增加了上采樣層,使得最后的檢測層變?yōu)樗某叨葯z測,增加了一部分的計(jì)算量,導(dǎo)致網(wǎng)絡(luò)的復(fù)雜度增加。與此同時(shí)檢測的時(shí)間一定會(huì)增加,這是提升精準(zhǔn)度P、召回率R和mAP所帶來的不可避免的負(fù)面影響。但是這種時(shí)間的增加并不大,相比于其他的像Faster R-CNN這樣的目標(biāo)檢測算法,文中方法檢測速度還是遠(yuǎn)遠(yuǎn)快于它們,在SAR艦船圖像的實(shí)際應(yīng)用方面,還是具有一定的可靠性。
針對當(dāng)前對SAR圖像中的艦船目標(biāo)檢測效果不佳和復(fù)雜背景下漏檢率較高的問題,根據(jù)SAR圖像中艦船目標(biāo)分布在復(fù)雜的海岸線和密集的特點(diǎn),提出了一種基于YOLOv5網(wǎng)絡(luò)模型的改進(jìn)BiFPN目標(biāo)檢測方法。
該方法針對復(fù)雜背景下的艦船目標(biāo)具有較好的檢測效果,對比其他的改進(jìn)目標(biāo)檢測算法,該方法在mAP上大幅提升,雖然相對于YOLOv5檢測算法檢測時(shí)間變長,但是其檢測效果變得更好。算法為解決復(fù)雜海岸背景對艦船的干擾,引入CBAM注意力,加強(qiáng)對圖像的特征提取能力。同時(shí)為了防止丟失小目標(biāo)信息,檢測層的四尺度檢測避免漏檢,在這樣的特征增強(qiáng)下,可能會(huì)導(dǎo)致目標(biāo)信息過于豐富而注意到某些不存在的目標(biāo)信息,于是引入新的損失函數(shù)SIoU來重新定位檢測框與真實(shí)框的關(guān)系。對于該改進(jìn)方法只在數(shù)據(jù)集HRSID進(jìn)行測試并且表現(xiàn)良好,可能不具有泛化性,為了使該方法具有普適性,將使用更多的艦船數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò),并且不斷優(yōu)化,以提高精準(zhǔn)度。