張夢(mèng)君
(閩北職業(yè)技術(shù)學(xué)院 信息系, 福建 南平 353000)
進(jìn)入數(shù)字信息時(shí)代以后, 數(shù)據(jù)已經(jīng)成為人們?nèi)粘I钆c工作非常重要的一部分, 而圖片數(shù)據(jù)又 是 電 子 數(shù) 據(jù) 的 重 要 組 成 部 分 之 一[1-2], 尤其是電子商務(wù)的興起, 使得圖像信息檢索的研究逐步深入。 在京東、淘寶、亞馬遜、拼多多等電子商務(wù)網(wǎng)站中, 每日的圖片訪問(wèn)率可以達(dá)到這些網(wǎng)站數(shù)據(jù)訪問(wèn)率的80%左右, 而且現(xiàn)階段還呈現(xiàn)出大幅度增加的趨勢(shì)[3-4]。 為滿足用戶的需求,需要研究提高圖像信息檢索精度及檢索速度的措施。文獻(xiàn)[5]使用深度學(xué)習(xí)的方法提高圖像的清晰度, 在特定損失函數(shù)以及隨即變換等手段的輔助下,完成了對(duì)檢索精度的優(yōu)化;文獻(xiàn)[6]結(jié)合多尺度池化和范數(shù)注意力機(jī)制計(jì)算了空間位置向量,完成了高精度的圖像信息檢索;文獻(xiàn)[7]針對(duì)復(fù)雜的空間影像提出了完備的拓?fù)渥兞棵枋龇椒?,提升了?fù)雜空間與具有深度特征的檢索效率與檢索精度。
但是將上述方法應(yīng)用至圖像信息檢索過(guò)程中存在量化誤差高、 平均準(zhǔn)確率低以及檢索時(shí)間長(zhǎng)的問(wèn)題,本文以解決上述方法存在的問(wèn)題作為研究目標(biāo),設(shè)計(jì)了一種基于深度神經(jīng)網(wǎng)絡(luò)的圖像信息快速檢索方法。
式 中, F (a , b)表 示 排 除 最 小 化 向 量 之 和 后 的 標(biāo) 準(zhǔn)化特征值。 結(jié)合該直方圖法標(biāo)準(zhǔn)化系數(shù),可以計(jì)算局部敏感區(qū)域的圖像信息特征。 將原始空間數(shù)據(jù)中的圖像特征進(jìn)行隨機(jī)映射,在保證數(shù)據(jù)空間內(nèi)的概率之和小于閾值的情況下,計(jì)算原始空間距離的數(shù)據(jù)點(diǎn)[8],此時(shí)的哈希函數(shù)變換應(yīng)滿足的條件為
為保證圖像信息能夠被有效識(shí)別, 將分類(lèi)損失函數(shù)作為深度神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)條件, 此時(shí)的損失函數(shù)可以表示為
圖1 基于深度神經(jīng)網(wǎng)絡(luò)對(duì)圖像信息的快速檢索方法的檢索流程
在檢索時(shí)首先訓(xùn)練特征樣本,設(shè)置相應(yīng)的算法參數(shù),同時(shí)獲取圖像信息快速檢索的旋轉(zhuǎn)矩陣與量化編碼結(jié)構(gòu)。 在隨機(jī)初始化參數(shù)以后,可以查找是否獲得了網(wǎng)絡(luò)的初始特征[9]。 若沒(méi)有獲取初始特征,則需要重新訓(xùn)練特征樣本,并進(jìn)行不斷迭代處理。 當(dāng)獲取初始特征之后,就需要制定并更新網(wǎng)絡(luò)策略,通過(guò)優(yōu)化編碼結(jié)構(gòu)的方式,判定優(yōu)化目標(biāo)是否實(shí)現(xiàn)。 若沒(méi)有實(shí)現(xiàn)優(yōu)化目標(biāo),則需要重新返回到訓(xùn)練特征樣本的階段,若得到優(yōu)化目標(biāo),則該優(yōu)化目標(biāo)即為最終的優(yōu)化結(jié)果,以此實(shí)現(xiàn)圖像信息快速檢索。
為測(cè)試所設(shè)計(jì)的基于深度神經(jīng)網(wǎng)絡(luò)的圖像信息快速檢索方法的有效性和優(yōu)越性,設(shè)計(jì)如下實(shí)驗(yàn)。將Linux 操作系統(tǒng)作為本實(shí)驗(yàn)的操作平臺(tái),將Python 語(yǔ)言下的TensorFlow 框架作為深度學(xué)習(xí)框架。 實(shí)驗(yàn)中將個(gè)人的PC 機(jī)作為主要設(shè)備,CPU 環(huán)境采用Intel Xeon E5-2670 以及八核處理器,顯存為12 GB,硬盤(pán)使用256 G 固態(tài)硬盤(pán)加1 T 機(jī)械硬盤(pán)的格式, 實(shí)驗(yàn)中的主要軟件使用MARLAB。 為了保證圖像信息檢索實(shí)驗(yàn)的有效性,建立圖像數(shù)據(jù)集,該數(shù)據(jù)集(圖2)內(nèi)主要有數(shù)字1~4 構(gòu)成的圖案。
圖2 圖像數(shù)據(jù)集
在本實(shí)驗(yàn)中,使用量化誤差作為衡量算法,針對(duì)圖像檢索損失誤差進(jìn)行計(jì)算,其計(jì)算公式為
在實(shí)驗(yàn)中,為驗(yàn)證所設(shè)計(jì)的方法的性能,將本文設(shè)計(jì)的基于深度神經(jīng)網(wǎng)絡(luò)的圖像信息快速檢索方法、深度學(xué)習(xí)算法、多尺度池化和范數(shù)注意力機(jī)制、 精細(xì)拓?fù)浣Y(jié)構(gòu)表示與深度特征融合方法作為實(shí)驗(yàn)對(duì)比方法。 設(shè)置圖像數(shù)據(jù)集內(nèi)的圖像數(shù)量為1 000,其中每一種類(lèi)型的圖像數(shù)量為250,哈希碼的長(zhǎng)度分別設(shè)置為12、32 和48 bit, 并將其作為變量。 建立獨(dú)特的學(xué)習(xí)框架,考慮檢索損失誤差以及檢索平均準(zhǔn)確率,同時(shí)在特征學(xué)習(xí)中對(duì)上述圖像信息檢索的分類(lèi)性能進(jìn)行測(cè)試,以證明所設(shè)計(jì)的檢索方法的有效性與優(yōu)越性,此時(shí)可以得到2 種指標(biāo)在不同算法和不同哈希碼變量下的數(shù)據(jù)結(jié)果, 如表1所示。
表1 不同算法及不同變量下的數(shù)據(jù)結(jié)果
由表1 可知,隨著哈希碼長(zhǎng)度的增加,檢索損失誤差增加,且檢索平均準(zhǔn)確率小幅度增加,哈希碼長(zhǎng)度對(duì)圖像信息檢索的精度呈正向促進(jìn)作用。 本文方法的檢索損失誤差更低,檢索平均準(zhǔn)確率更高,實(shí)際應(yīng)用效果更好。
不同數(shù)據(jù)數(shù)量下4 種方法的檢索時(shí)間如圖3所示。 由圖3 知,當(dāng)數(shù)據(jù)數(shù)量為500 時(shí),4 種算法的檢索時(shí)間差距較小, 但是隨著數(shù)據(jù)數(shù)量的增加,不但其檢索所需時(shí)間越來(lái)越長(zhǎng),4 種方法檢索時(shí)間之間的差距也在不斷變大。 到了4 000 條圖像數(shù)據(jù)時(shí),4 種 方 法 的 檢 索 用 時(shí) 分 別 為17 s、24 s、31 s 和38 s, 本文方法所需的檢索時(shí)間更短, 檢索效率更高,本文所設(shè)計(jì)的基于深度神經(jīng)網(wǎng)絡(luò)的圖像信息快速檢索方法在檢索精度以及檢索速度方面均優(yōu)于其他3 種方法。
圖3 檢索時(shí)間
為了提升圖像信息檢索效果, 本文設(shè)計(jì)了一種基于深度神經(jīng)網(wǎng)絡(luò)的圖像信息快速檢索方法, 在大規(guī)模的圖像數(shù)據(jù)集中, 利用該檢索方式對(duì)某一項(xiàng)內(nèi)容進(jìn)行檢索與匹配,提取局部特征信息,結(jié)合特征信息提取結(jié)果實(shí)現(xiàn)圖像信息快速檢索。 對(duì)比其他3 種方法,該檢索方法的精度以及運(yùn)算速度均更優(yōu)越,可見(jiàn)該圖像信息快速檢索方法優(yōu)于其他方法, 實(shí)際應(yīng)用效果好。