• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于LCVAE-CNN的多任務(wù)室內(nèi)Wi-Fi指紋定位方法

    2025-08-03 00:00:00吳仕勛曾鑫睿徐凱藍章禮張淼金悅
    計算機應(yīng)用研究 2025年6期
    關(guān)鍵詞:樓層編碼器指紋

    Multi-task indoor Wi-Fi fingerprinting positioning method basedonLCVAE-CNN

    WuShixun,ZengXinrui?,XuKai,Lan Zhangli,ZhangMiao,Jin Yue (Schoolof Information Scienceamp;Engineering,Chongqing Jiaotong University,Chongqing 40074,China)

    Abstract:Indor Wi-Fireceivedsignal strengthindicator(RSI)fingerprintingwidelysupportslocation-basedservices. However,itfaceschallengessuchasthediffcultyofdatacolectionandsevereRSIfluctuationscausedbydynamicenvironmentalchanges,which hinderachieving high-acuracylocalization.Toimprove localizationaccuracyunderdatascarcityand dynamic environments,thispaper proposedadual-encoder structurethatindependentlyprocessedRSIdataandlocationcoor dinates.Thestudyintroducedageographicinformationlossfunctionandconstructedalocationconditionalvariationalautoencoder(LCVAE)model togenerate fingerprint data with geographicaccuracy,enhancing the localization model’sperformance.Aditionally,theresearchdesignedasharedconvolutional neuralnetwork(CNN)feature extractionlayer,ntegrating bothclasificationandregressionfunctions,andpresentedamultitask indoor Wi-Fifingerprintpositioning methodbasedon LCVAE-CNN.Experimental resultsshow that theproposed LCVAE-CNN methodachieves aflorclasification accuracyof 98.80% and a mean positioning error(MPE) of 6.79 meters on the UJIIndoorLoc dataset,and 97.22% and 5.44 meters respectivelyonthe Tamperedataset.Comparedtofiveexisting methods,theapproach improvesfloorclassificationaccuracyby atleast 1.9 percentage points and reduces MPE by a minimum of 19% :

    Key words:indoor positioning;LCVAE;CNN;data augmentation

    0 引言

    基于位置的服務(wù)(LBS)在導(dǎo)航、物流、游戲、人員跟蹤等領(lǐng)域發(fā)揮著重要作用。室內(nèi)定位服務(wù)因GPS信號弱且不穩(wěn)定,通常利用Wi-Fi、藍牙、RFID和UWB等技術(shù)提供位置信息。其中,基于Wi-Fi的室內(nèi)定位尤為受歡迎,因其無須額外硬件支持,成本低且易于實現(xiàn)[1]。Wi-Fi定位通常采用離線構(gòu)建接收信號強度指示(RSSI)指紋數(shù)據(jù)庫,在線匹配的指紋定位方法。其在數(shù)據(jù)稀缺、環(huán)境動態(tài)變化和設(shè)備差異等場景下,定位性能會顯著下降[2]

    近年來,深度學(xué)習(xí)技術(shù)的快速發(fā)展為室內(nèi)定位帶來了新的發(fā)展。例如,遞歸神經(jīng)網(wǎng)絡(luò)(RNN)[3]、堆疊自編碼器(SAE)[4]和卷積神經(jīng)網(wǎng)絡(luò)(CNN)[5]在處理RSSI信號的高維特征和噪聲方面表現(xiàn)出色。然而,這些模型通常依賴于大量標(biāo)記數(shù)據(jù),數(shù)據(jù)采集成本高且難以適應(yīng)復(fù)雜多樣的室內(nèi)環(huán)境[6,7]。室內(nèi)定位場景中,數(shù)據(jù)稀缺和環(huán)境動態(tài)變化是導(dǎo)致定位精度下降的主要原因。為解決這些問題,生成模型如生成對抗網(wǎng)絡(luò)(GAN)[8]和變分自編碼器(VAE)[9]被引人到指紋定位系統(tǒng)中,用以擴展指紋數(shù)據(jù)庫并增強模型對新環(huán)境的適應(yīng)能力。Njima等人[1]提出了一種基于GAN的RSSI數(shù)據(jù)增強方法,該方法利用少量真實標(biāo)記數(shù)據(jù)生成假RSSI數(shù)據(jù),并通過半監(jiān)督學(xué)習(xí)預(yù)測生成數(shù)據(jù)的偽標(biāo)簽,從而擴展了指紋數(shù)據(jù)庫;Qian等人[11]提出了一種基于VAE的半監(jiān)督學(xué)習(xí)模型,分為兩個階段:無監(jiān)督學(xué)習(xí)階段學(xué)習(xí)輸入數(shù)據(jù)的潛在分布,有監(jiān)督學(xué)習(xí)階段利用潛在分布與少量標(biāo)注數(shù)據(jù)共同訓(xùn)練預(yù)測模型,以提高定位準(zhǔn)確性。這些方法通過從有限的標(biāo)記數(shù)據(jù)中生成新樣本,顯著增強了模型對環(huán)境動態(tài)變化的適應(yīng)能力。然而,傳統(tǒng)VAE方法在生成數(shù)據(jù)的地理準(zhǔn)確性和特征提取能力上存在明顯局限[12]。例如,RSSI和坐標(biāo)信息的數(shù)值范圍和分布差異會導(dǎo)致模型生成的指紋數(shù)據(jù)缺乏地理意義,從而限制定位精度。針對這些不足,本文提出基于位置條件變分自編碼器(LCVAE)的生成模型,通過引入雙編碼器結(jié)構(gòu)分別處理RSSI和地理坐標(biāo)信息,確保生成數(shù)據(jù)的特征獨立性與一致性。地理信息損失函數(shù)進一步優(yōu)化了生成數(shù)據(jù)的空間分布特性,加權(quán)機制則有效平衡了樣本特征學(xué)習(xí)中的偏差,從而顯著提升了生成數(shù)據(jù)的地理準(zhǔn)確性和實用性。結(jié)合多任務(wù)CNN模型的分類和回歸能力,進一步提高了樓層分類和位置預(yù)測的精度與效率。主要貢獻如下:

    a)提出基于LCVAE的生成模型,引入雙編碼器結(jié)構(gòu)和地理信息損失函數(shù),有效提高生成數(shù)據(jù)的地理準(zhǔn)確性,并通過數(shù)據(jù)匹配機制解決樣本不均衡問題。

    b)設(shè)計基于多任務(wù)CNN的定位模型,利用卷積層提取RSSI數(shù)據(jù)的空間和頻率特征,實現(xiàn)高效的樓層分類和坐標(biāo)預(yù)測。

    c)在UJIIndoorLoc[13]和Tampere[14]兩個公開數(shù)據(jù)集上進行了廣泛實驗,與五種現(xiàn)有方法相比,所提方法在定位精度和魯棒性方面均表現(xiàn)出顯著優(yōu)勢,展示了其在復(fù)雜室內(nèi)環(huán)境中的應(yīng)用潛力。

    1LCVAE-CNN指紋定位方法

    LCVAE的設(shè)計核心是針對數(shù)據(jù)稀缺和環(huán)境動態(tài)變化問題,通過生成具有地理準(zhǔn)確性的指紋數(shù)據(jù)來增強定位模型的性能。雙編碼器結(jié)構(gòu)的設(shè)計動機在于RSSI和地理坐標(biāo)信息的數(shù)值范圍和分布差異。RSSI特征稀疏且易受噪聲影響,而坐標(biāo)信息需要高精度的空間分布表達。通過分別對RSSI特征和地理信息進行編碼,可以確保生成數(shù)據(jù)中兩類特征的獨立性和一致性,避免傳統(tǒng)VAE中因特征混淆導(dǎo)致的模糊輸出。LCVAE-CNN指紋定位方法的整體方案如圖1所示,分為離線和在線兩個階段。離線階段的原始指紋數(shù)據(jù)庫數(shù)據(jù)通過數(shù)據(jù)預(yù)處理和標(biāo)準(zhǔn)化過程以適應(yīng)后續(xù)模型訓(xùn)練的需求,應(yīng)用LCVAE模型對預(yù)處理后的數(shù)據(jù)進行增強,生成具有指定樓層的新指紋數(shù)據(jù),旨在通過增加數(shù)據(jù)多樣性來增強模型泛化能力。進一步的數(shù)據(jù)匹配和指紋選擇優(yōu)化指紋數(shù)據(jù)庫。最后使用增強后的指紋數(shù)據(jù)訓(xùn)練多任務(wù)CNN定位模型。在線階段,實時的Wi-Fi指紋數(shù)據(jù)被送人預(yù)先訓(xùn)練好的定位模型,輸出樓層和位置信息,為用戶提供即時定位服務(wù)。

    圖1LCVAE-CNN指紋定位系統(tǒng)結(jié)構(gòu)Fig.1LCVAE-CNN fingerprint positioning system structure

    1.1 數(shù)據(jù)預(yù)處理

    數(shù)據(jù)預(yù)處理是數(shù)據(jù)分析和機器學(xué)習(xí)早期階段的基礎(chǔ),使用多種技術(shù)進行數(shù)據(jù)清理、縮放、編碼等[15]。為了針對指定樓層生成附帶坐標(biāo)標(biāo)簽的指紋數(shù)據(jù),首先需要進行數(shù)據(jù)清理,從數(shù)據(jù)集中刪除不相關(guān)的特征,如用戶ID和空間ID等,專注于對定位影響顯著的特征,即保留經(jīng)度、緯度以及樓層和建筑ID等數(shù)據(jù)。為了適應(yīng)模型的需求,將樓層和建筑ID提取為新的特征“樓層_建筑物”,如:建筑物ID1、樓層0,組合成新樓層標(biāo)簽01,并對其進行獨熱編碼處理。然后對RSSI值和位置坐標(biāo)(經(jīng)度和緯度)分別進行歸一化處理,將RSSI值和坐標(biāo)數(shù)據(jù)線性縮放到0和1之間,以確保它們在模型中具有相同的影響力。具體地,歸一化公式為

    其中: Ψx 是原始數(shù)據(jù); x 是歸一化后的數(shù)據(jù)。為了確保數(shù)據(jù)的一致性,在歸一化操作后存儲用于轉(zhuǎn)換的參數(shù)以便反歸一化時能夠恢復(fù)原始數(shù)據(jù)。

    1.2 LCVAE數(shù)據(jù)增強

    本研究提出了一種LCVAE生成模型用于數(shù)據(jù)增強。LCVAE通過雙編碼器結(jié)構(gòu)從少量標(biāo)記RSSI數(shù)據(jù)中提取特征,結(jié)合地理信息損失函數(shù)生成帶有地理意義的虛擬指紋數(shù)據(jù),大幅降低了采集工作量。此外,生成數(shù)據(jù)的空間分布特性經(jīng)過優(yōu)化,更加接近真實數(shù)據(jù)分布,確保了生成數(shù)據(jù)的高質(zhì)量。加權(quán)機制在模型訓(xùn)練過程中動態(tài)調(diào)整特征權(quán)重,有效降低了環(huán)境動態(tài)變化(如障礙物、人員流動等)對RSSI特征學(xué)習(xí)的干擾,增強了模型在復(fù)雜室內(nèi)場景中的魯棒性。有效提高了生成定位數(shù)據(jù)的地理準(zhǔn)確性和實用性,解決了室內(nèi)定位中數(shù)據(jù)稀缺和不平衡的問題。該模型結(jié)構(gòu)如圖2所示,包括LCVAE的編碼和解碼部分。

    1.2.1 LCVAE 編碼模型

    LCVAE編碼模型包含兩個分離的編碼器,分別針對RSSI數(shù)據(jù)和地理坐標(biāo)數(shù)據(jù)進行處理。每個編碼器通過多層全連接網(wǎng)絡(luò),包含批量歸一化、LeakyReLU激活函數(shù)和dropout層,來提取和編碼輸入數(shù)據(jù)的特征。RSSI數(shù)據(jù)為 N×M 的矩陣,其中N 是參考點(RP)的數(shù)量,即樣本數(shù), M 是無線接入點(WAP)的數(shù)量。其表達式為

    其中: Ri,j 表示第 j 個WAP的第 i 個樣本的RSSI測量值。

    圖2LCVAE結(jié)構(gòu)Fig.2 Structure of LCVAE

    地理坐標(biāo)數(shù)據(jù) C=(C1,…,CN),Ci=(LONi,LATi) 為第 i 個RP的地理坐標(biāo), Y 為樓層和建筑條件信息。編碼的作用是將輸入數(shù)據(jù) X=(R,C) 映射到潛在空間變量 Z 的分布。潛在變量 Z 的后驗分布 q(Z∣Xi) 通常假設(shè)為高斯分布[16],使其盡量接近標(biāo)準(zhǔn)正態(tài)分布 q(Z),q(Z|Xi) 由輸人數(shù)據(jù) X 通過神經(jīng)網(wǎng)絡(luò)計算得出:

    logq(Z|Xi)=logN(Z;μ(Xi),σ2(Xi))

    其中 是神經(jīng)網(wǎng)絡(luò)參數(shù)化的函數(shù)。定義兩個編碼器 ER 和 Ec ,分別從 R 和 c 中學(xué)習(xí)特征表示,這些表示進一步用于LCVAE模型中。兩個編碼器 ER 和 Ec 的輸出分別為

    (μR,i,logσR,i2)=ER(R)

    (μC,i,logσC,i2)=EC(R)

    通過獨立處理RSSI和地理坐標(biāo)數(shù)據(jù),可以更細(xì)致地探索每種數(shù)據(jù)的內(nèi)部結(jié)構(gòu)和相關(guān)性,無須擔(dān)心兩種類型的特征在早期階段混合可能帶來的噪聲或信息損失。從RSSI和地理坐標(biāo)編碼器得到的特征被用來估計各自的均值和對數(shù)方差,這些參數(shù)定義了潛在變量的高斯分布,潛在變量 Z?R 和 Zc 通過重參數(shù)化從這些分布中采樣得到:

    其中: ε 是從標(biāo)準(zhǔn)正態(tài)分布采樣的噪聲。

    除了輸人數(shù)據(jù) X 外,編碼器和解碼器的每一層也會接收到一個額外的條件信息 Y[17] 。在LCVAE中,每個條件信息 Y 均通過一個線性層計算出具體的潛在空間均值 μY,i ,同時維持方差恒定。這一設(shè)計使得模型可以針對不同類別的輸入調(diào)整其潛在變量的均值,而不改變其分布的方差,從而在保證生成樣本多樣性的同時,提高特定條件下的數(shù)據(jù)生成質(zhì)量。得到潛在變量 ZR,i 和 Zc,i 后,將其與輸人的條件 Y 進行拼接得到編碼器輸出Zy,io

    1.2.2 LCVAE解碼

    LCVAE 解碼的任務(wù)是將編碼器輸出的潛在空間變量 ZY,i 映射回原始數(shù)據(jù)空間 X ,使得生成的模擬樣本 X=(R,C) 盡量接近原始輸入 X ,可以表示為

    X~p(X|Z;θ)

    其中: θ 表示解碼器的參數(shù),表征了解碼過程的具體計算方法。這一過程涉及一個概率生成模型,允許從概率分布中采樣,以獲得接近真實數(shù)據(jù)分布的新樣本。在訓(xùn)練過程中, θ 的優(yōu)化是通過最小化損失函數(shù)來實現(xiàn)的。這不僅幫助模型更準(zhǔn)確地學(xué)習(xí)數(shù)據(jù)的底層結(jié)構(gòu),還確保了生成的數(shù)據(jù)與原始數(shù)據(jù)在統(tǒng)計特征上保持一致性。模型的解碼器包含一個全連接網(wǎng)絡(luò)從聯(lián)合潛在變量和條件信息中重構(gòu)原始輸入數(shù)據(jù)。解碼器網(wǎng)絡(luò)逐級放大特征維度,最終輸出原始維度的數(shù)據(jù)。

    1.2.3損失函數(shù)

    為了保證LCVAE模型生成數(shù)據(jù)的質(zhì)量,本文結(jié)合重構(gòu)損失和KL散度損失,提出了一個新的損失函數(shù) L ,并且引入加權(quán)機制,旨在應(yīng)對數(shù)據(jù)分布的不均衡問題。通過動態(tài)調(diào)整生成模型中不同特征的權(quán)重,模型能夠更加靈活地學(xué)習(xí)特征分布,從而有效平衡稀疏數(shù)據(jù)和密集數(shù)據(jù)之間的偏差,進一步提高生成數(shù)據(jù)的質(zhì)量。其數(shù)學(xué)表達式如下:

    L=α?Lrecon(X,X)+β?LKL(X,Y)+Lgeo(C,C)

    其中: Lrecon 為重構(gòu)損失,是衡量模型解碼器輸出 X 與原始輸入數(shù)據(jù) X 之間差異的指標(biāo); α,β 分別為重物損失, KL 散度損失的權(quán)重因子。在LCVAE中,解碼器基于隱變量 ZY,i 和條件變量 Y 重構(gòu)輸人數(shù)據(jù)。重構(gòu)損失確保了解碼器能夠有效地利用隱變量來復(fù)現(xiàn)原始輸入數(shù)據(jù),從而學(xué)習(xí)到數(shù)據(jù)有用特征和結(jié)構(gòu),公式如下:

    在實際應(yīng)用中,求解 Lrecon 的解析表達式具有一定的挑戰(zhàn)性。由于均方誤差直接影響模型在特定任務(wù)(如預(yù)測、分類或生成)上的表現(xiàn),一般使用均方誤差來代替式(10),具體的公式為

    其中: |?| 是二維范式; Ri?Ri 分別是原始和重構(gòu)數(shù)據(jù)的第 i 個樣本RSSI矢量 Ci?Ci 分別是原始和重構(gòu)數(shù)據(jù)的第 i 個樣本位置坐標(biāo)矢量。

    LKL 為 KL 散度損失,用于度量隱變量 Z 的后驗分布q(Z∣Xi) 與先驗分布 q(Z) 之間的差異,其公式為

    KL散度的引入有兩個目的:一是保證隱變量分布的正則化,防止過擬合;二是推動后驗分布逼近先驗分布,從而使模型具備更好的泛化能力。通過這種方式,KL散度損失幫助模型在學(xué)習(xí)期間探索更多潛在的有效表示,增加生成的多樣性。由于LCVAE模型需要每一個類的樣本都有一個專屬的均值,本

    模型的KL散度公式為

    LKL=LKL,R+LKL,C

    地理信息損失函數(shù) Lgeo 的引入旨在解決生成RP坐標(biāo)地理準(zhǔn)確性不足的問題。通過在損失函數(shù)中加人位置坐標(biāo)的約束項,模型在生成數(shù)據(jù)時能夠更好地保留真實數(shù)據(jù)的空間分布特性,提高定位的精度和魯棒性。為確保生成的坐標(biāo)數(shù)據(jù) c 在地理位置上盡可能接近真實坐標(biāo) c ,并且在空間分布上也是合理的,使生成數(shù)據(jù)更具有地理意義,更加適用于定位任務(wù),其數(shù)學(xué)表達式如下:

    其中: i是第 i 個樣本中生成坐標(biāo)與真實坐標(biāo)之間的歐幾里德距離; γ 控制基本損失的相對重要性; λ 控制中心偏移懲罰的影響力。

    為了使生成的坐標(biāo)不僅在單個樣本上準(zhǔn)確,還在整體上接近真實坐標(biāo)的中心,引入一個中心偏移懲罰項。該項懲罰生成坐標(biāo)遠(yuǎn)離真實坐標(biāo)中心的行為,主要用于單個建筑數(shù)據(jù)生成,表達式如下:

    這種設(shè)計的目的是平衡個體樣本的精度和生成樣本的集群效果,以提高整體預(yù)測的準(zhǔn)確性和實用性。LCVAE的損失函數(shù)可以幫助生成模型不僅重構(gòu)數(shù)據(jù)點,還能學(xué)習(xí)數(shù)據(jù)的分布特性,使生成的數(shù)據(jù)在地理信息上更具可信度和實用價值。在實際應(yīng)用中,室內(nèi)環(huán)境可能因建筑結(jié)構(gòu)復(fù)雜、障礙物遮擋等因素影響信號傳播。地理信息損失不僅可以幫助模型學(xué)習(xí)如何在這種變化中維持高精度定位,而且能夠引導(dǎo)模型優(yōu)先學(xué)習(xí)減少實際應(yīng)用中最關(guān)鍵的誤差一地理位置誤差。這可以幫助模型在學(xué)習(xí)過程中更有效地調(diào)整參數(shù),提高學(xué)習(xí)效率。

    1.3 數(shù)據(jù)匹配

    在多層或多建筑的數(shù)據(jù)集中,當(dāng)原始數(shù)據(jù)集中添加了更多的生成指紋時,分類模型的準(zhǔn)確性會降低[18]。為了確保輸入到定位模型中的數(shù)據(jù)在每層樓均勻分布并且具有準(zhǔn)確性,本文提出了一種數(shù)據(jù)匹配算法。該算法將模型設(shè)置為評估模式,以防止在數(shù)據(jù)增強過程中模型權(quán)重發(fā)生改變。對于每個指定的樓層標(biāo)簽Y,算法首先從樓層列表 F 中識別出該樓層對應(yīng)的數(shù)據(jù)索引,然后從這些索引中隨機選擇指定數(shù)量的樣本數(shù)S,最終生成的數(shù)據(jù)總數(shù)為 SxF 。這一隨機選擇允許重復(fù),確保即使在數(shù)據(jù)量較少的情況下也能滿足樣本數(shù)量的需求,這在數(shù)據(jù)量較少的情況下尤為重要。選定的樣本通過模型進行前向傳播,生成新的數(shù)據(jù)。這一過程不涉及反向傳播,因此不會對模型參數(shù)造成影響。

    在數(shù)據(jù)匹配階段,算法逐個處理每個選定的樣本。對于每個樣本,其RSSI測量值和坐標(biāo)數(shù)據(jù)被送人模型以生成新的數(shù)據(jù)點,同時樓層標(biāo)簽保持不變。生成的樣本與原始樣本的樓層標(biāo)簽合并,形成完整的數(shù)據(jù)記錄得到生成數(shù)據(jù)集 Dgen ,從而為定位模型提供更為均衡和準(zhǔn)確的訓(xùn)練數(shù)據(jù)。具體算法描述如下:

    算法1數(shù)據(jù)匹配算法

    輸入:模型(LCVAE),R(RSSI數(shù)據(jù)), c (坐標(biāo)數(shù)據(jù)),Y(樓層標(biāo)簽), F (樓層列表),S(每個樓層的樣本數(shù)量)。

    輸出: :Dgen( (生成數(shù)據(jù)集)。

    將模型置于評估模式初始化生成數(shù)據(jù)集 Dgen for每個 Y in F do:

    在 Y 中找到當(dāng)前樓層的索引,記為‘F_index'if當(dāng)前樓層有數(shù)據(jù)then:從‘F_index'中隨機選擇 s 個索引,記為‘selected_indices’for每個索引in‘selected_indices’do:提取相應(yīng)的 R 和 c (20使用模型生成新的數(shù)據(jù)點 (R,C) 將預(yù)測輸出 R,C, )作為增強數(shù)據(jù)點加入到列表 Dgen end forend ifend forretum 生成數(shù)據(jù)集 Dgen (204號

    1.4指紋選擇

    在真實指紋和生成指紋之間選擇合適的距離也很重要[18]。通過篩選出生成指紋的代表性指紋,可以有效地減少噪聲和干擾。本研究利用K-D樹對真實及生成的指紋數(shù)據(jù)點進行空間接近性過濾,以提高數(shù)據(jù)集的質(zhì)量。這種方法的核心在于利用歐氏距離作為度量標(biāo)準(zhǔn),從而確定生成的數(shù)據(jù)點與原始數(shù)據(jù)點的空間接近程度,得到刪選后的數(shù)據(jù)集 Dsel 。首先輸入原始數(shù)據(jù)集 Dori=(R,C,Y) 和生成數(shù)據(jù)集 Dgen=(R,C,Y) ,使用 Dori 中的地理坐標(biāo) Ci=(LONi LATi )來構(gòu)建一個 K-D 樹,該樹結(jié)構(gòu)能夠快速執(zhí)行最近鄰查詢。接著設(shè)定了一個距離閾值 r ,用于篩選與原始數(shù)據(jù)點接近的生成數(shù)據(jù)點 Ci'=(LONi' ,LATi' )。之后,對生成數(shù)據(jù)集中的每個點進行最近鄰查詢,返回在指定閾值內(nèi)的原始數(shù)據(jù)點的索引。通過遍歷查詢結(jié)果,篩選出符合條件的生成數(shù)據(jù)點,并根據(jù)這些索引從 Dgen 中提取出符合要求的數(shù)據(jù)點,形成 Dsel 。合并 Dsel 和 Dori 形成最終的增強指紋數(shù)據(jù)庫。具體算法如下:

    算法2指紋選擇算法輸入: ??Dori(? 原始數(shù)據(jù)集), Dgen( 生成數(shù)據(jù)集), ,r (距離閾值)。輸出 ??Dsel(? 選擇數(shù)據(jù)集)。從 Dori 中選擇地理坐標(biāo)構(gòu)建K-D樹設(shè)置臨近閾值 r←5 使用 r 查詢 Dgen 中距離小于等于閾值的最近點Indices—tree.query_ball_point( Dgen .values, r )初始化選擇列表為空列表for每個 i,idx 在枚舉(indices)do:if idx≠0 Selected_indices.append(i)endifend forDselDgen .iloc[selected_indices]retum選擇數(shù)據(jù)集 Dsel

    1.5 多任務(wù)CNN模型

    本研究設(shè)計了一個基于深度學(xué)習(xí)的多任務(wù)CNN模型,專門用于處理室內(nèi)定位的分類和回歸問題,結(jié)構(gòu)如圖3所示。

    使用單一深度學(xué)習(xí)模型處理這兩個任務(wù)的主要優(yōu)勢在于,它能夠在分類和回歸任務(wù)之間共享底層特征的學(xué)習(xí),從而提高泛化能力并更有效地利用計算資源。通過采用多任務(wù)方法,減少了對獨立模型的需求,這簡化了部署過程并降低了整體模型的復(fù)雜性,同時在兩個任務(wù)上都能取得具有競爭力的性能。該模型的輸入層接收一個維數(shù)為 (M,1) 的RSSI值數(shù)組,該數(shù)組經(jīng)過兩層卷積層處理,其中每個卷積層后跟一個最大池化層和一個dropout層,以增強模型對輸入數(shù)據(jù)中噪聲的魯棒性。通過這些卷積層,模型可以有效捕捉到信號的空間和頻率特征。在卷積層之后,將來自CNN的二維層平坦化為一維特征,然后連接到網(wǎng)絡(luò)分為兩個獨立的任務(wù)分支:分類分支和回歸分支。分類分支旨在預(yù)測設(shè)備所處的具體樓層,而回歸分支則預(yù)測設(shè)備的精確坐標(biāo)(經(jīng)度和緯度)。分類分支由全連接層構(gòu)成,并使用softmax激活函數(shù)輸出各樓層的概率?;貧w分支同樣由全連接層構(gòu)成,但最終層使用線性激活函數(shù)直接輸出坐標(biāo)值。模型的訓(xùn)練過程中,采用了Adam優(yōu)化器,并設(shè)置了一個適中的學(xué)習(xí)率。Adam結(jié)合了AdaGrad和RMSProp的優(yōu)點,使其特別適合涉及大型數(shù)據(jù)集的問題,如本工作所考慮的那樣。這確保了在保持計算效率的同時有效地處理RSSI數(shù)據(jù)的復(fù)雜性和高維性質(zhì)。為了應(yīng)對過擬合,在分類分支的全連接層中加入了dropout層,但在回歸分支中去掉了dropout層。因為在分類任務(wù)中dropout層會防止過擬合,但是對于絕對位置定位這類回歸任務(wù)dropout層會丟失掉一些重要的特征信息,所以在回歸分支中并沒有dropout層,并通過早停(earlystopping)策略來終止訓(xùn)練過程,防止訓(xùn)練損失的進一步降低。

    圖3多任務(wù)CNN定位模型結(jié)構(gòu)

    在訓(xùn)練階段,使用分類損失和回歸損失的組合來同時優(yōu)化兩個任務(wù)。模型的性能通過驗證集上的損失和精度來評估,確保了其在未見數(shù)據(jù)上的泛化能力。通過多任務(wù)CNN模型,展示了深度學(xué)習(xí)在處理復(fù)雜室內(nèi)定位問題時的有效性,尤其是在處理具有高維特征空間的RSSI數(shù)據(jù)時。

    2 實驗結(jié)果與分析

    實驗在配備AMDRyzen77840HSCPU和32GB內(nèi)存的Windows11系統(tǒng)上進行,使用PyCharm開發(fā)環(huán)境和Python3.9編程語言實現(xiàn),主要依賴庫包括PyTorch、TensorFlow 和 Scikit-learm。

    2.1 數(shù)據(jù)集描述

    本文研究的定位結(jié)果基于UJIIndoorLoc[13]和 Tampere[14]兩個公開數(shù)據(jù)集,這些數(shù)據(jù)集不僅是經(jīng)典的室內(nèi)定位數(shù)據(jù)集,同時也代表了真實的實例應(yīng)用場景。UJIIndoorLoc數(shù)據(jù)集采集于多建筑、多樓層的復(fù)雜環(huán)境中,包含動態(tài)浮動環(huán)境變化(如信號反射、障礙物移動等);而Tampere數(shù)據(jù)集則是在單建筑的動態(tài)干擾場景下采集,具有實際應(yīng)用的代表性。UJIIndoorLoc數(shù)據(jù)集是由西班牙瓦倫西亞的JaumeI大學(xué)研發(fā),專為室內(nèi)定位系統(tǒng)的開發(fā)和評估而設(shè)計。從不同設(shè)備和用戶的933個RP中收集21049個Wi-Fi指紋樣本,其中19938個指紋被劃分為訓(xùn)練集,剩下1111個指紋作為驗證集,涵蓋了多個建筑物內(nèi)的多個樓層。每個數(shù)據(jù)點包括了來自520個WAP的RSSI數(shù)據(jù),以及對應(yīng)的地理位置信息,如建筑ID(0、1、2)樓層( 0~ 4)、經(jīng)緯度等。此數(shù)據(jù)集廣泛用于測試和比較各種基于機器學(xué)習(xí)的室內(nèi)定位方法。Tampere數(shù)據(jù)集使用眾包策略在芬蘭坦佩雷大學(xué)一座五層大學(xué)大樓收集。通過21種不同的設(shè)備收集,共有4648個指紋,其中697個指紋被隨機分配為訓(xùn)練數(shù)據(jù),剩余3951個指紋被用作驗證集。每個指紋數(shù)據(jù)包括了來自992個WAP的RSSI數(shù)據(jù),以及對應(yīng)的地理位置信息。兩個數(shù)據(jù)集都從訓(xùn)練集隨機均勻劃分 20% 的數(shù)據(jù)作為測試集,每個FP中未檢測到WAP的RSSI值默認(rèn)為 +100dbm ,其數(shù)據(jù)集特征如表1所示。

    表1數(shù)據(jù)集主要特征Tab.1Main featuresof the data set

    為了全面評估模型的定位精確度,引入了平均定位誤差(MPE)作為衡量標(biāo)準(zhǔn)。該誤差通過計算真實地理坐標(biāo)與預(yù)測地理坐標(biāo)之間的歐氏距離來得到,如下所示。

    其中: (LONi,LATi )和( ?LONi',LATi' )分別表示第 i 個測試樣本的真實地理坐標(biāo)和預(yù)測地理坐標(biāo)。

    2.2 模型參數(shù)優(yōu)化

    2.2.1 多任務(wù)CNN模型參數(shù)優(yōu)化

    在多任務(wù)CNN模型的參數(shù)優(yōu)化過程中,首先關(guān)注卷積核的大小和濾波器的數(shù)量,因為這兩個參數(shù)直接影響模型捕獲數(shù)據(jù)特征的能力。通過測試不同卷積核大小(3,5,7)和濾波器數(shù)量(64,96,128,256,512)的組合,以確定最優(yōu)配置。如圖4所示,卷積核大小為3,濾波器數(shù)量為128時,模型在兩個數(shù)據(jù)集UJIIndoorLoc和Tampere上的MPE都表現(xiàn)較好。

    Fig.3Structure of multi-task CNN positioning model圖4不同濾波數(shù)量和核大小的平均定位誤差ig.4MPE of different filter numbers and kernel sizes

    由于dropout操作有助于防止模型的過擬合,通過在訓(xùn)練過程中隨機丟棄一部分網(wǎng)絡(luò)連接,增加了模型的魯棒性。在確定了卷積核和濾波器數(shù)量的最佳配置后,需要進一步調(diào)優(yōu)dropout因子。測試dropout因子從0.2到0.7的不同結(jié)果,如圖5所示,當(dāng)dropout因子為0.5時,兩個數(shù)據(jù)集的樓層分類準(zhǔn)確率和MPE都達到了相對較好的效果。

    最終確定的多任務(wù)CNN模型參數(shù)如表2所示。通過這一系列優(yōu)化步驟顯著提升了模型在不同數(shù)據(jù)集上的表現(xiàn)。

    表2多任務(wù)CNN定位模型參數(shù)Tab.2Multi-task CNN positioning model parameters

    2.2.2 LCVAE模型參數(shù)優(yōu)化

    LCVAE模型包括專門用于編碼RSSI和坐標(biāo)的編碼器,一個重新參數(shù)化機制以表示潛在空間,以及一個解碼器用于重構(gòu)輸入。因此,優(yōu)化器是決定模型訓(xùn)練效率和穩(wěn)定性的關(guān)鍵因素。為進一步分析LCVAE在數(shù)據(jù)稀疏條件下的表現(xiàn),實驗中采用不同訓(xùn)練數(shù)據(jù)比例進行了測試,結(jié)果如圖6所示。對于稀疏數(shù)據(jù),RMSProp優(yōu)化器相比Adam展現(xiàn)了更高的穩(wěn)定性和精度提升,主要得益于其對梯度更新的動態(tài)調(diào)節(jié)能力。此外,與原始數(shù)據(jù)相比,無論訓(xùn)練數(shù)據(jù)量為多少,LCVAE生成的增強數(shù)據(jù)均顯著提高了定位精度,尤其在稀疏數(shù)據(jù)條件下效果更為顯著。具體來說,在UJIIndoorLoc數(shù)據(jù)集上(圖6(a)),當(dāng)訓(xùn)練數(shù)據(jù)比例僅為 10% 時,原始數(shù)據(jù)的MPE高達 20.3m ,而通過LCVAE數(shù)據(jù)增強后,采用RMSProp優(yōu)化器的MPE降低至14.1m ,減少了約 30.5% 。類似地,在Tampere數(shù)據(jù)集(圖6(b))上,訓(xùn)練數(shù)據(jù)比例為 10% 時, RMSProp 優(yōu)化器的MPE由原始數(shù)據(jù)的 25.2m 降低至 15.6m ,減少了約 38.1% 。這些結(jié)果表明,LCVAE生成的數(shù)據(jù)在稀疏數(shù)據(jù)條件下能夠顯著緩解訓(xùn)練數(shù)據(jù)不足帶來的性能下降問題。

    實驗進一步表明,隨著訓(xùn)練數(shù)據(jù)比例的增加,RMSProp優(yōu)化器的性能優(yōu)勢仍然存在,這表明其在LCVAE生成數(shù)據(jù)的訓(xùn)練中不僅適用于稀疏數(shù)據(jù)場景,同時也能在大規(guī)模數(shù)據(jù)下保持較高的穩(wěn)定性和精度。這一結(jié)果突出了優(yōu)化器選擇在LCVAE模型中處理稀疏數(shù)據(jù)及提升定位性能的重要性。

    圖7原始和生成的RP分布對Fig.7Comparison of original and generated RP distribution paii

    損失函數(shù)的權(quán)重對于LCVAE模型效果影響明顯。其中,對于重構(gòu)損失通常要保證比較大的權(quán)重以確保模型能有效地學(xué)習(xí)數(shù)據(jù)的基本結(jié)構(gòu),設(shè)置 α=1 ;KL散度損失用于確保編碼后的潛在表示有良好的統(tǒng)計特性,通常權(quán)重較低,以防止它壓倒重構(gòu)損失,導(dǎo)致模型生成的輸出質(zhì)量下降,設(shè)置 β=0. 1 ;最后地理信息損失是特定于定位的應(yīng)用,目的是確保模型輸出的地理坐標(biāo)接近真實值。權(quán)重的選擇可以根據(jù)實際對位置精度的需求來調(diào)整。這個損失如果太大,可能會導(dǎo)致模型過度優(yōu)化地理信息而忽視其他重要特征,設(shè)置適中的權(quán)重為 γ=0.5

    在復(fù)雜的室內(nèi)環(huán)境中,由于障礙物、信號反射和動態(tài)干擾,原始RSSI數(shù)據(jù)的地理分布特性會受到顯著影響,進而導(dǎo)致指紋數(shù)據(jù)庫中某些區(qū)域的地理信息丟失或偏移。這種分布偏差是室內(nèi)定位精度下降的重要原因之一。LCVAE通過地理信息損失函數(shù)的約束機制有效緩解了這一問題,使生成數(shù)據(jù)能夠更好地保留原始數(shù)據(jù)的空間分布特性。從圖7中可以看到,生成的參考點與原始數(shù)據(jù)在各樓層及建筑物內(nèi)部均具有一致的地理分布,進一步驗證了LCVAE模型在復(fù)雜環(huán)境中的適應(yīng)性。

    在UJIIndoorLoc數(shù)據(jù)集中,由于存在多個建筑和更復(fù)雜的物理結(jié)構(gòu),環(huán)境動態(tài)變化使RSSI特征分布更加不穩(wěn)定。LCVAE通過地理信息損失約束生成的參考點分布,更好地適配多建筑環(huán)境中的實際地理特性。在Tampere數(shù)據(jù)集中,僅有一個建筑,RSSI信號的分布相對集中,通過引入建筑中心點懲罰項設(shè)置 λ=0.01 ,進一步均衡生成數(shù)據(jù)的分布,提升了生成數(shù)據(jù)在單建筑場景下的適用性。實驗結(jié)果表明,地理信息損失的引入顯著提升了生成數(shù)據(jù)的地理意義。

    為進一步驗證所提地理信息損失函數(shù)的有效性,在Tampere數(shù)據(jù)集中設(shè)置地理損失函數(shù)權(quán)重 γ=0 ,如圖8(a)所示。生成的數(shù)據(jù)參考點沒有原來的地理分布。當(dāng)設(shè)置地理損失函數(shù)權(quán)重 γ=0.5 時,如圖8(b)所示,生成的參考點和原來相似卻不同。這表明地理信息損失函數(shù)能夠生成具有地理意義的數(shù)據(jù)。

    Fig.8Comparison of RPdistribution of different γ

    通過持續(xù)的實驗和對比分析,最終確定LCVAE模型的主要參數(shù)如表3所示。

    Tab.3LCVAE model parameters

    2.3 定位結(jié)果與分析

    為了能夠直觀地展示樓層分類效果,同時也精確地揭示分類模型在不同樓層間的表現(xiàn),本文所提LCVAE-CNN指紋方法在UJIIndoorLoc和Tampere數(shù)據(jù)集上的樓層分類混淆矩陣如圖9所示。從圖9(a)中的混淆矩陣可以看出,絕大多數(shù)樓層被正確分類,這表明模型能夠有效區(qū)分不同的樓層,具有高度的判別能力。然而,圖9(b)的混淆矩陣揭示了樓層0和1之間的一些分類誤差,揭示了在相鄰樓層的分類上可能需要進一步優(yōu)化策略。

    為了全面評估本文提出的LCVAE-CNN指紋定位方法性能,與五種現(xiàn)有最新方法進行了比較與分析,包括SAE-(20號 CNN[4] 、CDAE-CNN[5]、HADNN[19]、EA-CNN[20]和 CNNLoc[21]在UJIIndoorLoc和Tampere數(shù)據(jù)集上的樓層分類準(zhǔn)確率和MPE定位性能如表4所示。從樓層分類準(zhǔn)確率上看,LCVAE-CNN方法在UJIIndoorLoc和Tampere數(shù)據(jù)集上分別高達98.80% 和 97.22% ,與現(xiàn)有最好的樓層分類相比,準(zhǔn)確率分別提升了2.49和1.9百分點。此外,與未使用LCVAE的多任務(wù)CNN方法相比,樓層分類準(zhǔn)確率有一定提升,尤其是數(shù)據(jù)量較小時其準(zhǔn)確率提升更為明顯。從MPE上看,LCVAE-CNN方法在UJIIndoorLoc和Tampere數(shù)據(jù)集上分別為 6.79m 和 5.44m 與最高的定位精度相比,MPE分別提高了 19% 和 32% 。此外,LCVAE數(shù)據(jù)增強能夠顯著減小 MPE 。綜上所述,所提LCVAE-CNN方法不僅能夠提高樓層分類準(zhǔn)確率,還能夠顯著提高定位精度。

    進一步通過定位誤差的累積分布函數(shù)(CDF)進行性能比較。所有方法均在相同的訓(xùn)練數(shù)據(jù)集上訓(xùn)練,并在相同的測試集上評估。為減少不同預(yù)處理步驟可能造成的影響,CNN模型使用了簡單的樣本變換矩陣。圖10展示了這些方法在兩個數(shù)據(jù)集上的CDF性能。從圖10(a)中可以看出,LCVAE-CNN方法在所有位置誤差閾值上均優(yōu)于其他對比方法,顯示出更精準(zhǔn)的定位能力。這一性能優(yōu)勢歸功于LCVAE在模型中的應(yīng)用,其通過數(shù)據(jù)增強顯著提升了模型對環(huán)境的感知和定位能力。圖10(b)顯示,在數(shù)據(jù)更為稀疏的Tampere數(shù)據(jù)集中,LCVAE的數(shù)據(jù)增強效果尤為明顯,與其他方法相比,性能提升更加突出。這表明在數(shù)據(jù)稀疏的環(huán)境中,本文方法更能有效地提升定位精度。

    為了全面評估所提LCVAE-CNN方法的綜合性能,本文對比了不同定位方法的訓(xùn)練時間和運行時間,結(jié)果如表5所示。訓(xùn)練時間測量了每種方法在相同數(shù)據(jù)集和硬件條件下完成模型訓(xùn)練所需的總耗時。運行時間則基于每種模型處理100個測試樣本的平均耗時,通過重復(fù)預(yù)測100次并計算均值,確保了結(jié)果的穩(wěn)定性和可靠性。

    表5不同模型的訓(xùn)練時間和運行時間比較Tab.5Comparisonof training timeand run timefordifferentmodel:

    從訓(xùn)練時間來看,LCVAE-CNN由于結(jié)合了生成模型和多任務(wù)學(xué)習(xí)框架,其訓(xùn)練時間顯著高于其他方法,反映了模型的復(fù)雜度。然而,與其高訓(xùn)練時間對應(yīng)的是顯著的定位性能提升,這表明所提方法在復(fù)雜動態(tài)場景下具有較高的實用價值。相比之下,簡單網(wǎng)絡(luò)(如HADNN)訓(xùn)練時間最短,但其定位性能遠(yuǎn)低于LCVAE-CNN。從運行時間來看,盡管LCVAE-CNN的運行時間略高于不使用LCVAE的方法,但與其他一些復(fù)雜的CNN模型相比,顯示出更優(yōu)的運行效率。LCVAE-CNN在保持高精度的同時,具備較高的計算效率,能夠滿足實際應(yīng)用中的實時性需求。從表5可以看出,盡管LCVAE-CNN的訓(xùn)練時間最長,但其定位性能和運行時間表現(xiàn)均衡,尤其在動態(tài)復(fù)雜環(huán)境中的精度優(yōu)勢,使其成為高精度定位任務(wù)中的理想選擇。

    3結(jié)束語

    本文提出基于LCVAE-CNN的多任務(wù)指紋定位方法,通過LCVAE的雙編碼器和改進的損失函數(shù),使得生成數(shù)據(jù)更加具有地理意義以及更加適用于定位任務(wù),解決了室內(nèi)定位中數(shù)據(jù)采集困難和環(huán)境動態(tài)變化帶來的挑戰(zhàn),增強了定位模型的魯棒性。相較于現(xiàn)有的五種指紋定位方法,實驗結(jié)果表明本文方法在UJIIndoorLoc和Tampere兩個公開數(shù)據(jù)集上實現(xiàn)了顯著的性能提升,尤其在減少定位誤差和提高樓層分類準(zhǔn)確性方面表現(xiàn)突出。

    針對未來的研究,可進一步探索LCVAE架構(gòu)中的潛在改進,例如通過更深層的網(wǎng)絡(luò)、改進的訓(xùn)練算法或更復(fù)雜的損失函數(shù)來提升模型性能。同時,考慮將本研究擴展到更廣泛的室內(nèi)環(huán)境應(yīng)用,包括其他多層大型建筑和挑戰(zhàn)性的信號遮擋區(qū)域。此外,結(jié)合多種傳感器數(shù)據(jù),如慣性測量單元(IMU)、超聲波和光學(xué)傳感器,可為室內(nèi)定位提供更全面的環(huán)境感知能力。通過融合來自不同源的數(shù)據(jù),可以顯著增強模型對于環(huán)境動態(tài)變化的適應(yīng)性。

    參考文獻:

    [1]吳蔚,譚獻海,錢曉群,等,基于卡爾曼濾波的室內(nèi)定位可信指 紋庫研究與實現(xiàn)[J]:計算機應(yīng)用研究,2020,37(6):1835- 1838.(Wu Wei, Tan Xianhai,Qian Xiaoqun,et al.Research and implementationof_trustedfingerprintlibraryinindoorlocalization based on Kalman filter[J]. Application Research of Computers, 2020,37(6): 1835-1838.)

    [2]Zhu Xiaoqiang,Qu Wenyu, Qiu Tie,et al.Indor inteligentfingerprint-based localization: principles, approaches and challenges [J]. IEEE CommunicationsSurveysamp; Tutorials,2020,22(4): 2634- 2657.

    [3]王甘楠,田昕,魏國亮,等.基于RNN的多傳感器融合室內(nèi)定位 方法[J]:計算機應(yīng)用研究,2021,38(12):3725-3729。(Wang Gannan,Tian Xin, Wei Guoliang,et al. Multi-sensor fusion indoor localization method based on RNN[J]. Application Research of Computers,2021,38(12):3725-3729.)

    [4]Song Xudong,F(xiàn)an Xiaochen, Xiang Chaocan,elal.Anovel convo lutional neural network based indoor localizationframework with Wi-Fi fingerprinting[J]. IEEE Access,2019,7:110698-110709.

    [5]QinFeng,ZuoTao, Wang Xing.Cpos:Wi-Fifingerprintindoorpositioning system based on CDAE-CNN[J]. Sensors,2021,21 (4): 1114.

    [6]Li Chaosheng,Mao Yongyi.Improved indoor localization algorithm combining K-means clustering algorithm and Wasserstein generative adversarial network algorithm[C]//Proc of the19th International Conference onNatural Computation,F(xiàn)uzzy Systems and Knowledge Discovery. Piscataway,NJ: IEEE Press,2023:1-5.

    [7]Lee BH,Park K M,Kim YH,et al.Hybrid approach for indoor localization using received signal strength of dual-band Wi-Fi[J]. Sensors,2021,21(16): 5583.

    [8]Njima W,Bazzi A,ChafiiM.DNN-based indoor localization under limited dataset using GANs and semi-supervised learning[J]. IEEE Access,2022,10:69896-69909.

    [9]Chidlovskii B,Antsfeld L. Semi-supervised variational autoencoder for Wi-Fi indoor localization[C]//Proc of Intermational Conference on Indoor Positioning and Indoor Navigation. Piscataway,NJ:IEEE Press, 2019: 1-8.

    [10]Njima W,ChafiiM,Chorti A,etal.Indorlocalizationusingdata augmentation via selective generative adversarial networks[J].IEEE Access,2021,9:98337-98347.

    [11] Qian Weizhu, Lauri F, Gechter F. Supervised and semi-supervised deep probabilistic models for indoor positioning problems[J].Neurocomputing,2021,435:228-238.

    [12]Junoh SA,Pyun JY.Enhancing indoor localization with semicrowdsourced fingerprinting and GAN-based data augmentation [J]. IEEE Intemet of Things Joumal,2024,11(7) : 11945-11959.

    [13]Torres-SospedraJ,MontoliuR,Martinez-UsA,elal.Udor Loc: a new multi-building and multi-floor database for WLAN fingerprint-based indoor localization problems_[C]//Proc of International ConferenceonInorPositiongandIndoorNavigationPiscaaway NJ: IEEE Press,2014:261-270.

    [14]Lohan E,Tores-SospedraJ,Leppkoski H,etal.Wi-Ficrowdsourced fingerprinting dataset for indoorpositioning[J].Data,2017,2 (4): 32.

    [15]TorresSospedraJ,MtoluR,TrilesS,etdl.Copreesive lysis of distanceandsimilaritymeasures for Wi-Fifingerprintingindoor positioning systems[J].Expert Systems with Applications, 2015,42(23): 9263-9278.

    [16]Kingma D P,Welling M. Auto-encoding variational Bayes[EB/ OL].(2022-12-10). htps://arxiv.org/abs/1312.6114.

    [17] Sohn K,Yan Xinchen,Lee H. Learning structured output representation using deep conditional generative models_[C]//Advances in Neural Information Processing Systems. 2015: 3483-3491.

    [18] Quezada-Gaibor D,Tores-SospedraJ,NumiJ,et al.SURIMI:su pervised radio map augmentation with deep learning and a generative adversarial network forfingerprint-based indoorpositioning[C]// Procofthe12thEEEInteatioalCofereceoIndorPostiong and Indoor Navigation.Piscataway,NJ:IEEE Press, 2022:1-8.

    [19]Cha J,Lim E.A hierarchical auxiliary deep neural network architctureforlarge-scaleindorlocalizationbasedonWiFifingerprinting [J].Applied Soft Computing,2022,120:108624.

    [20]Alitaleshi A, Jazayeriy H, Kazemitabar J. EA-CNN: a smart indoor 3D postioningscheme based on Wi-Fi fingerprintingand deplear ning[J].EngineeringApplicationsof Artficial Intelligence, 2023,117:105509.

    [21]Jang'JW,HongSN.Indorlocalizatio with Wi-Fifigerpting using convolutional neural network[C]//Proc of the 1Oth International ConferenceonUbiquitousandFutureNetworks.Piscataway, NJ: IEEE Press,2018:753-758.

    猜你喜歡
    樓層編碼器指紋
    基于Transformer模型的圖書館借閱量預(yù)測研究
    指紋里的藤蔓(外一首)
    陽光(2025年8期)2025-08-11 00:00:00
    單原子熱振動顯微圖像首次拍到
    紀(jì)實攝影《這山那山茶農(nóng)的金山》
    微型全國產(chǎn)化精密單軸轉(zhuǎn)臺設(shè)計
    機電信息(2025年14期)2025-08-05 00:00:00
    外部知識與內(nèi)部上下文語義聚合的短文本新聞虛假檢測模型
    指紋物質(zhì)信息技術(shù)
    面向視覺-語言模型的遞進互提示學(xué)習(xí)
    久久婷婷成人综合色麻豆| 男男h啪啪无遮挡| 黑人巨大精品欧美一区二区蜜桃| 1024视频免费在线观看| 啦啦啦 在线观看视频| 欧美精品高潮呻吟av久久| 欧美在线一区亚洲| 男女无遮挡免费网站观看| 日韩中文字幕欧美一区二区| 久久久久精品国产欧美久久久| 汤姆久久久久久久影院中文字幕| 久久久久久久精品吃奶| 欧美老熟妇乱子伦牲交| 一区福利在线观看| 老司机靠b影院| 一级黄色大片毛片| 国产精品国产高清国产av | 国产成人免费观看mmmm| 久久久久视频综合| 操出白浆在线播放| 视频在线观看一区二区三区| 欧美日本中文国产一区发布| 午夜福利欧美成人| 波多野结衣av一区二区av| 变态另类成人亚洲欧美熟女 | 啦啦啦视频在线资源免费观看| 国产aⅴ精品一区二区三区波| 成人国语在线视频| 十八禁人妻一区二区| 电影成人av| 香蕉丝袜av| 在线永久观看黄色视频| 亚洲av成人一区二区三| 精品久久久精品久久久| 亚洲va日本ⅴa欧美va伊人久久| 国产精品国产高清国产av | 丝袜在线中文字幕| 婷婷成人精品国产| 无遮挡黄片免费观看| 一本一本久久a久久精品综合妖精| 免费高清在线观看日韩| 亚洲av国产av综合av卡| 日本wwww免费看| 亚洲精品自拍成人| 午夜精品久久久久久毛片777| 成人手机av| 一级片免费观看大全| 亚洲精品美女久久久久99蜜臀| 美女午夜性视频免费| 老熟女久久久| 午夜视频精品福利| 老司机在亚洲福利影院| 国产成人免费无遮挡视频| 黄色a级毛片大全视频| 久久久久精品国产欧美久久久| 成人三级做爰电影| 亚洲成国产人片在线观看| 香蕉国产在线看| 国产亚洲精品久久久久5区| 国产精品自产拍在线观看55亚洲 | av欧美777| 亚洲中文av在线| 日本精品一区二区三区蜜桃| 老汉色av国产亚洲站长工具| 国产真人三级小视频在线观看| 免费在线观看视频国产中文字幕亚洲| 亚洲欧美日韩高清在线视频 | 免费黄频网站在线观看国产| 欧美日韩黄片免| 美女视频免费永久观看网站| 新久久久久国产一级毛片| 99re在线观看精品视频| 欧美午夜高清在线| 久久精品aⅴ一区二区三区四区| 宅男免费午夜| 99re6热这里在线精品视频| 啪啪无遮挡十八禁网站| 日韩大码丰满熟妇| 欧美日韩视频精品一区| 香蕉国产在线看| 日韩有码中文字幕| 国产精品 欧美亚洲| 黄色丝袜av网址大全| 91精品国产国语对白视频| 免费在线观看视频国产中文字幕亚洲| 成人av一区二区三区在线看| 亚洲精品一二三| 日韩欧美免费精品| 中文字幕人妻熟女乱码| 无人区码免费观看不卡 | 午夜两性在线视频| 国产在线一区二区三区精| 久热这里只有精品99| 90打野战视频偷拍视频| 91av网站免费观看| 亚洲精品国产色婷婷电影| 亚洲精华国产精华精| 黄色视频不卡| 亚洲人成77777在线视频| 亚洲av日韩精品久久久久久密| 中文欧美无线码| 亚洲精品久久午夜乱码| 黄色 视频免费看| avwww免费| 亚洲人成电影观看| 欧美精品一区二区免费开放| 久久中文字幕一级| 777米奇影视久久| 国产精品一区二区精品视频观看| 国产在线免费精品| 国产精品亚洲av一区麻豆| 岛国在线观看网站| 亚洲精品美女久久久久99蜜臀| 国产国语露脸激情在线看| 亚洲色图综合在线观看| 国产又爽黄色视频| 69av精品久久久久久 | 无遮挡黄片免费观看| 国产成人精品无人区| 婷婷丁香在线五月| 亚洲精品一卡2卡三卡4卡5卡| 欧美老熟妇乱子伦牲交| 性少妇av在线| 成年版毛片免费区| 亚洲精品国产精品久久久不卡| 99热网站在线观看| 在线观看66精品国产| 国产精品免费一区二区三区在线 | 日本撒尿小便嘘嘘汇集6| 两性午夜刺激爽爽歪歪视频在线观看 | 搡老乐熟女国产| 久久婷婷成人综合色麻豆| 国产男女超爽视频在线观看| 日本vs欧美在线观看视频| 黑人操中国人逼视频| 亚洲欧美色中文字幕在线| 天堂中文最新版在线下载| 高清在线国产一区| 乱人伦中国视频| 欧美日韩亚洲综合一区二区三区_| 亚洲avbb在线观看| 亚洲欧美激情在线| 中文字幕人妻丝袜制服| 91大片在线观看| 每晚都被弄得嗷嗷叫到高潮| 天天操日日干夜夜撸| 国产男女内射视频| 免费在线观看影片大全网站| 国产成人精品久久二区二区91| 丰满迷人的少妇在线观看| 午夜精品国产一区二区电影| 精品福利永久在线观看| 久久人人爽av亚洲精品天堂| 极品少妇高潮喷水抽搐| 夜夜爽天天搞| 久久久久视频综合| 国产免费视频播放在线视频| 在线亚洲精品国产二区图片欧美| 黄片小视频在线播放| 中文欧美无线码| 王馨瑶露胸无遮挡在线观看| 亚洲av美国av| 精品欧美一区二区三区在线| 久久久久久久大尺度免费视频| 99国产综合亚洲精品| 18禁裸乳无遮挡动漫免费视频| 黄色视频在线播放观看不卡| 亚洲性夜色夜夜综合| 一本—道久久a久久精品蜜桃钙片| 少妇猛男粗大的猛烈进出视频| 婷婷成人精品国产| 国产一区二区三区视频了| 天堂俺去俺来也www色官网| 成年版毛片免费区| 自线自在国产av| 色在线成人网| 他把我摸到了高潮在线观看 | 精品第一国产精品| 在线观看免费高清a一片| 999久久久国产精品视频| 少妇被粗大的猛进出69影院| 亚洲第一av免费看| 天堂动漫精品| 午夜激情久久久久久久| 久久久久久人人人人人| 18禁美女被吸乳视频| 制服人妻中文乱码| 亚洲成人免费av在线播放| 男女边摸边吃奶| 在线观看免费高清a一片| 国产淫语在线视频| 日本vs欧美在线观看视频| 亚洲一区中文字幕在线| 大香蕉久久网| 成人18禁在线播放| 91成人精品电影| 亚洲av欧美aⅴ国产| 窝窝影院91人妻| 日韩 欧美 亚洲 中文字幕| 亚洲五月婷婷丁香| 激情在线观看视频在线高清 | 五月开心婷婷网| 国产精品秋霞免费鲁丝片| a级毛片黄视频| 男女床上黄色一级片免费看| 国产激情久久老熟女| 热re99久久精品国产66热6| 久久中文字幕人妻熟女| av国产精品久久久久影院| 啦啦啦免费观看视频1| 亚洲熟女精品中文字幕| 黄色成人免费大全| 免费女性裸体啪啪无遮挡网站| 久久久久精品国产欧美久久久| 老熟女久久久| 免费观看a级毛片全部| 亚洲自偷自拍图片 自拍| 男女床上黄色一级片免费看| 婷婷丁香在线五月| 免费看a级黄色片| 桃红色精品国产亚洲av| 国产精品久久久久久精品电影小说| 日本精品一区二区三区蜜桃| 在线播放国产精品三级| 国产野战对白在线观看| 欧美成狂野欧美在线观看| 9色porny在线观看| 日本欧美视频一区| 一进一出抽搐动态| 国产亚洲av高清不卡| 国产男女超爽视频在线观看| 日日夜夜操网爽| 日韩精品免费视频一区二区三区| 最黄视频免费看| 一边摸一边抽搐一进一出视频| 19禁男女啪啪无遮挡网站| 国产亚洲午夜精品一区二区久久| 日韩成人在线观看一区二区三区| 国产成人av教育| 欧美日韩精品网址| 99国产综合亚洲精品| 搡老乐熟女国产| 无遮挡黄片免费观看| 麻豆国产av国片精品| 国产老妇伦熟女老妇高清| 啦啦啦 在线观看视频| 午夜成年电影在线免费观看| 无遮挡黄片免费观看| 一区在线观看完整版| 曰老女人黄片| 亚洲中文av在线| 久久ye,这里只有精品| 天天躁夜夜躁狠狠躁躁| 久久精品人人爽人人爽视色| 十分钟在线观看高清视频www| 老司机深夜福利视频在线观看| 免费在线观看影片大全网站| 91成年电影在线观看| 国产成人免费观看mmmm| 18禁观看日本| 80岁老熟妇乱子伦牲交| 亚洲精品中文字幕一二三四区 | 亚洲专区中文字幕在线| 国产免费现黄频在线看| 婷婷丁香在线五月| 亚洲少妇的诱惑av| 成人手机av| 不卡av一区二区三区| 99re6热这里在线精品视频| 美女扒开内裤让男人捅视频| tube8黄色片| 69精品国产乱码久久久| 亚洲精品成人av观看孕妇| 香蕉丝袜av| 青青草视频在线视频观看| av在线播放免费不卡| 日本wwww免费看| 建设人人有责人人尽责人人享有的| 熟女少妇亚洲综合色aaa.| 欧美乱码精品一区二区三区| 日韩视频在线欧美| 中国美女看黄片| 午夜免费鲁丝| 午夜福利视频在线观看免费| 亚洲七黄色美女视频| 久久久久精品国产欧美久久久| 久久久久久久大尺度免费视频| 国产伦人伦偷精品视频| 两个人看的免费小视频| 亚洲国产成人一精品久久久| 51午夜福利影视在线观看| 久久久久久久久免费视频了| 亚洲 国产 在线| 久久中文字幕一级| svipshipincom国产片| 亚洲欧美日韩另类电影网站| 久久狼人影院| 亚洲人成77777在线视频| 国产精品秋霞免费鲁丝片| 亚洲一区中文字幕在线| 国产成人精品在线电影| 法律面前人人平等表现在哪些方面| 水蜜桃什么品种好| 叶爱在线成人免费视频播放| 亚洲欧洲日产国产| 巨乳人妻的诱惑在线观看| 成年人黄色毛片网站| 岛国在线观看网站| 亚洲av第一区精品v没综合| 王馨瑶露胸无遮挡在线观看| 捣出白浆h1v1| 久久久久精品国产欧美久久久| 日韩视频在线欧美| 国产区一区二久久| 国产深夜福利视频在线观看| av网站免费在线观看视频| 王馨瑶露胸无遮挡在线观看| 女人久久www免费人成看片| 欧美久久黑人一区二区| 一本一本久久a久久精品综合妖精| 丰满人妻熟妇乱又伦精品不卡| 在线观看一区二区三区激情| 久久精品国产99精品国产亚洲性色 | 国产又色又爽无遮挡免费看| 老司机午夜福利在线观看视频 | 亚洲天堂av无毛| 一边摸一边做爽爽视频免费| 日韩三级视频一区二区三区| 法律面前人人平等表现在哪些方面| 涩涩av久久男人的天堂| av超薄肉色丝袜交足视频| 国产亚洲精品久久久久5区| 日韩欧美一区二区三区在线观看 | 男男h啪啪无遮挡| 国产男靠女视频免费网站| www.999成人在线观看| 成人国语在线视频| 一本—道久久a久久精品蜜桃钙片| 午夜两性在线视频| 纵有疾风起免费观看全集完整版| 成人精品一区二区免费| www.999成人在线观看| 亚洲综合色网址| 一边摸一边抽搐一进一出视频| 精品亚洲成国产av| 精品国产一区二区三区久久久樱花| 菩萨蛮人人尽说江南好唐韦庄| 色老头精品视频在线观看| 国产又爽黄色视频| 亚洲成av片中文字幕在线观看| 别揉我奶头~嗯~啊~动态视频| 黑人巨大精品欧美一区二区mp4| 亚洲黑人精品在线| 97人妻天天添夜夜摸| 亚洲,欧美精品.| 国产成人av教育| 亚洲全国av大片| 欧美日韩福利视频一区二区| 久久久久久久国产电影| 精品久久久久久电影网| 精品亚洲成国产av| 久久久久国产一级毛片高清牌| 国产精品影院久久| 日本vs欧美在线观看视频| 动漫黄色视频在线观看| 久久性视频一级片| 天堂俺去俺来也www色官网| 高清毛片免费观看视频网站 | 国产精品亚洲av一区麻豆| 亚洲av成人不卡在线观看播放网| 视频区图区小说| 老汉色∧v一级毛片| 亚洲精品国产区一区二| 成人手机av| 亚洲精品国产色婷婷电影| 日韩精品免费视频一区二区三区| 久久久久久久精品吃奶| 午夜福利影视在线免费观看| 免费女性裸体啪啪无遮挡网站| 三级毛片av免费| 国产日韩欧美视频二区| 一个人免费在线观看的高清视频| 少妇猛男粗大的猛烈进出视频| 国产在线免费精品| 黄色毛片三级朝国网站| 亚洲av成人不卡在线观看播放网| 免费女性裸体啪啪无遮挡网站| 性少妇av在线| 欧美日韩国产mv在线观看视频| 悠悠久久av| 欧美精品一区二区大全| 成人精品一区二区免费| 人妻一区二区av| 国产片内射在线| 久久久久久久国产电影| e午夜精品久久久久久久| 涩涩av久久男人的天堂| 欧美日韩亚洲国产一区二区在线观看 | 欧美日韩黄片免| 久久久国产成人免费| 大型黄色视频在线免费观看| 成人国语在线视频| 精品少妇一区二区三区视频日本电影| 亚洲人成电影观看| 欧美日韩国产mv在线观看视频| 国产成人系列免费观看| 大片电影免费在线观看免费| 国产免费av片在线观看野外av| 亚洲精品国产色婷婷电影| 蜜桃在线观看..| 久久热在线av| 国产精品香港三级国产av潘金莲| 黄色丝袜av网址大全| 亚洲成人国产一区在线观看| 我的亚洲天堂| 在线永久观看黄色视频| 国产区一区二久久| 999久久久国产精品视频| 国产福利在线免费观看视频| 啦啦啦视频在线资源免费观看| 黄色视频不卡| 亚洲欧洲日产国产| 12—13女人毛片做爰片一| 日韩大码丰满熟妇| 激情在线观看视频在线高清 | 亚洲熟妇熟女久久| av天堂久久9| 亚洲专区国产一区二区| 日韩欧美免费精品| 国产成人av激情在线播放| 久久人妻熟女aⅴ| 亚洲精品av麻豆狂野| 国产高清激情床上av| av网站在线播放免费| 久久久精品区二区三区| 亚洲少妇的诱惑av| 成年版毛片免费区| 成年人免费黄色播放视频| 日日夜夜操网爽| 国产精品一区二区在线观看99| 9191精品国产免费久久| 国产精品自产拍在线观看55亚洲 | 少妇 在线观看| 国产色视频综合| 老熟妇仑乱视频hdxx| 操美女的视频在线观看| 国产精品久久久av美女十八| 国产亚洲午夜精品一区二区久久| 91精品三级在线观看| 窝窝影院91人妻| 叶爱在线成人免费视频播放| 在线 av 中文字幕| 国产精品偷伦视频观看了| 在线亚洲精品国产二区图片欧美| 操出白浆在线播放| 久久国产精品男人的天堂亚洲| 777米奇影视久久| 另类亚洲欧美激情| 国产av国产精品国产| 免费高清在线观看日韩| 免费在线观看视频国产中文字幕亚洲| 三上悠亚av全集在线观看| 免费看十八禁软件| 中文字幕制服av| 国产区一区二久久| 久久毛片免费看一区二区三区| 亚洲精品久久午夜乱码| 欧美日韩亚洲综合一区二区三区_| 美女国产高潮福利片在线看| 亚洲av欧美aⅴ国产| 久久久精品区二区三区| 后天国语完整版免费观看| 午夜免费成人在线视频| 欧美中文综合在线视频| 欧美老熟妇乱子伦牲交| 亚洲av成人一区二区三| 一级片免费观看大全| 高清av免费在线| 成年动漫av网址| 欧美大码av| 国产三级黄色录像| 久久久久网色| tocl精华| 免费黄频网站在线观看国产| 在线播放国产精品三级| 国产三级黄色录像| 激情在线观看视频在线高清 | 亚洲avbb在线观看| 成年动漫av网址| av又黄又爽大尺度在线免费看| 国产一卡二卡三卡精品| 成人精品一区二区免费| 啪啪无遮挡十八禁网站| 欧美 日韩 精品 国产| 国产单亲对白刺激| 国产精品免费一区二区三区在线 | 欧美激情久久久久久爽电影 | 日本五十路高清| 国产精品欧美亚洲77777| 一二三四社区在线视频社区8| 搡老熟女国产l中国老女人| 国产精品久久久久久人妻精品电影 | 亚洲精品粉嫩美女一区| 亚洲午夜理论影院| a级毛片在线看网站| 手机成人av网站| 国产欧美日韩一区二区精品| 国产一区有黄有色的免费视频| 久久国产精品人妻蜜桃| 成人亚洲精品一区在线观看| 超碰成人久久| av超薄肉色丝袜交足视频| 久久久久久久国产电影| 中文字幕色久视频| 99re在线观看精品视频| 亚洲色图综合在线观看| 最近最新中文字幕大全免费视频| 建设人人有责人人尽责人人享有的| 亚洲色图 男人天堂 中文字幕| 午夜精品国产一区二区电影| 少妇的丰满在线观看| 久久亚洲精品不卡| 中文字幕av电影在线播放| 久久久国产精品麻豆| 亚洲 欧美一区二区三区| 精品乱码久久久久久99久播| 亚洲情色 制服丝袜| 久久 成人 亚洲| 一区二区三区国产精品乱码| 亚洲成av片中文字幕在线观看| 黑人欧美特级aaaaaa片| 国产成人系列免费观看| 桃红色精品国产亚洲av| 另类精品久久| 成年人黄色毛片网站| 亚洲国产欧美日韩在线播放| 黄片大片在线免费观看| 丰满饥渴人妻一区二区三| cao死你这个sao货| 欧美日韩av久久| 99精国产麻豆久久婷婷| www日本在线高清视频| 国产黄频视频在线观看| 国产一区有黄有色的免费视频| 黄片播放在线免费| 欧美日韩亚洲综合一区二区三区_| 美女国产高潮福利片在线看| 狠狠婷婷综合久久久久久88av| 美国免费a级毛片| 麻豆av在线久日| 久久人人97超碰香蕉20202| 精品午夜福利视频在线观看一区 | 中文欧美无线码| 丁香欧美五月| 日日夜夜操网爽| 母亲3免费完整高清在线观看| 午夜精品国产一区二区电影| svipshipincom国产片| 亚洲人成77777在线视频| 两性午夜刺激爽爽歪歪视频在线观看 | 亚洲av美国av| 亚洲va日本ⅴa欧美va伊人久久| 国产熟女午夜一区二区三区| av线在线观看网站| 久久影院123| 精品久久久久久久毛片微露脸| 精品少妇一区二区三区视频日本电影| 最新在线观看一区二区三区| 99re6热这里在线精品视频| 757午夜福利合集在线观看| 女警被强在线播放| 99re在线观看精品视频| 正在播放国产对白刺激| 欧美+亚洲+日韩+国产| 午夜福利乱码中文字幕| 亚洲人成电影观看| 亚洲va日本ⅴa欧美va伊人久久| 国产亚洲欧美在线一区二区| 国产免费视频播放在线视频| 国产午夜精品久久久久久| 日本av手机在线免费观看| 国产一区二区三区综合在线观看| 国产高清videossex| 久久av网站| 黄色怎么调成土黄色| 91成年电影在线观看| 中文字幕精品免费在线观看视频| 91av网站免费观看| 亚洲午夜精品一区,二区,三区| 亚洲av国产av综合av卡| 12—13女人毛片做爰片一| 亚洲成a人片在线一区二区| 在线观看免费视频网站a站| 亚洲情色 制服丝袜| 久久久精品免费免费高清| 亚洲欧美日韩高清在线视频 | 法律面前人人平等表现在哪些方面| 人人妻人人爽人人添夜夜欢视频| 国产在线精品亚洲第一网站| 色94色欧美一区二区| 一区二区三区乱码不卡18| cao死你这个sao货| 另类精品久久| 在线观看免费日韩欧美大片| 日本黄色视频三级网站网址 | 十分钟在线观看高清视频www| 久久久久久人人人人人| 日本wwww免费看| 国产日韩欧美在线精品| www.熟女人妻精品国产| 天天躁狠狠躁夜夜躁狠狠躁| 日韩中文字幕视频在线看片| 日本精品一区二区三区蜜桃| 成年人午夜在线观看视频| 色婷婷av一区二区三区视频|