李宇文 冷凝
摘 要:本文重點分析了如何利用“arXiv數(shù)據(jù)庫”進行有效檢索。同時,通過具體實際案例發(fā)現(xiàn),在非專利檢索中,若在google學術(shù)中檢索到時間不可用的對比文件,可繼續(xù)在“arXiv數(shù)據(jù)庫”中做進一步的時間確定,可能會檢索到時間可用的版本。
關(guān)鍵詞:arXiv數(shù)據(jù)庫;檢索
一、引言
檢索是發(fā)明專利申請實質(zhì)審查程序中的一個關(guān)鍵步驟,其目的在于找出與申請的主題密切相關(guān)或者相關(guān)的現(xiàn)有技術(shù)中的對比文件,或者找出抵觸申請文件和防止重復(fù)授權(quán)的文件,以確定申請的主題是否具備專利法規(guī)定的新穎性和創(chuàng)造性[1]??梢?,檢索的質(zhì)量和效率直接影響著審查的質(zhì)量和效率。那么,如何選取數(shù)據(jù)庫,并從海量的文獻中快速檢索到時間可用、內(nèi)容有效的對比文件,提高檢索效率,已經(jīng)成為檢索工作中亟需解決的問題。
二、利用arXiv數(shù)據(jù)庫檢索
arXiv是一個收錄科學文獻預(yù)印本的在線數(shù)據(jù)庫系統(tǒng),其網(wǎng)址為arxiv.org[2]。下面結(jié)合實際案例來提供針對arXiv數(shù)據(jù)庫檢索相關(guān)技巧和策略。
案例一:
(1)案情介紹
1. 一種圖像檢測方法,包括:
輸入步驟:將第一圖像輸入經(jīng)過訓練的神經(jīng)網(wǎng)絡(luò);
檢測步驟:基于所述神經(jīng)網(wǎng)絡(luò)對所述第一圖像中感興趣區(qū)域進行檢測,得到圍繞所述感興趣區(qū)域的多邊形,檢測所述多邊形的各個邊所在的直線;
輸出步驟:輸出描述所述各個邊所在的直線的參數(shù)。
2. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述經(jīng)過訓練的神經(jīng)網(wǎng)絡(luò)模型采用以下步驟獲得:
訓練數(shù)據(jù)集獲取步驟:對多個第二圖像的感興趣區(qū)域進行標識,得到訓練數(shù)據(jù)集;
SSD網(wǎng)絡(luò)訓練步驟:利用所述訓練數(shù)據(jù)集訓練SSD網(wǎng)絡(luò);
神經(jīng)網(wǎng)絡(luò)訓練步驟:利用所述訓練數(shù)據(jù)集訓練神經(jīng)網(wǎng)絡(luò),其中,所述神經(jīng)網(wǎng)絡(luò)通過如下方式獲得:將訓練后的所述SSD網(wǎng)絡(luò)的檢測(Detection)層的輸入作為LSTM網(wǎng)絡(luò)的輸入,從而將所述SSD網(wǎng)絡(luò)與所述LSTM網(wǎng)絡(luò)組合形成所述神經(jīng)網(wǎng)絡(luò)。
(2)檢索技巧和策略
a)常規(guī)檢索及檢索難點
本申請的發(fā)明構(gòu)思主要體現(xiàn)在兩個方面,(1)采用線性標識方式對圖像中的感興趣區(qū)域進行標識;(2)采用SSD-LSTM卷積神經(jīng)網(wǎng)絡(luò),對視頻圖像的感興趣區(qū)域進行檢測識別。
通過常規(guī)的檢索方式發(fā)現(xiàn),將SSD和LSTM結(jié)合的神經(jīng)網(wǎng)絡(luò)算法均出現(xiàn)在2018-2019年,可見SSD+LSTM結(jié)合的卷積神經(jīng)網(wǎng)絡(luò)算法屬于新的技術(shù)手段。
b)亮點檢索
選擇在google學術(shù)中對“SSD+LSTM結(jié)合的卷積神經(jīng)網(wǎng)絡(luò)算法”進行檢索,如圖1所示。
經(jīng)檢索發(fā)現(xiàn),文獻1《TSSD: temporal single-shot detector based on attention and LSTM for robotic intelligent perception》中所引用的文獻正是其下面這篇文獻2《Mobile video object detection with temporally-aware feature maps》,該文獻2提出了一種將SSD+LSTM結(jié)合的混合循環(huán)卷積結(jié)構(gòu),其相對于傳統(tǒng)的LSTM減少了計算量。但是,從google學術(shù)中給出的鏈接點進去,可以看出該文獻2發(fā)表在CVPR2018上,其時間不可用,如圖2所示。
于是,繼續(xù)在google學術(shù)中檢索,發(fā)現(xiàn)文獻3《An Improved objective detection of road scenes based on SSD model》中同樣提到了“SSD+LSTM結(jié)合的混合循環(huán)卷積結(jié)構(gòu)”,其引用的文獻正是文獻2,但是在給出的參考文獻中,卻記載的時間是2017年。如圖3所示。
該文獻2的時間究竟是2017還是2018年,若能證明該文獻2在2017年就已經(jīng)公開,那么,文獻2即可與D1結(jié)合評述本申請的創(chuàng)造性。于是,需要對文獻2的公開時間做進一步確認。
通過瀏覽文獻2公開網(wǎng)址,發(fā)現(xiàn)下面給出了“ ”,即相關(guān)材料,通常我們只關(guān)注PDF,而其給出的文獻是最新更新的文獻,其時間為最新的時間。往往忽略了“arXiv數(shù)據(jù)庫”,點進“arXiv數(shù)據(jù)庫”,可以看到文獻2有兩個版本,即2017年11月17日提交的版本v1和2018年3月28日提交的最終版v2。
同時,該網(wǎng)頁給出了版本v1和v2的下載版本。由此,我們可以采用2017年11月17日公開的版本v1,作為本申請的D2,同時,將D1與D2結(jié)合,評述本申請權(quán)利要求2的創(chuàng)造性。
三、結(jié)束語
基于該案例,我們發(fā)現(xiàn)同一篇文章,若收錄在“arXiv數(shù)據(jù)庫”中,則時間相較于Google學術(shù)更早。因此,若在google學術(shù)中檢索到時間不可用的對比文件,可繼續(xù)在“arXiv數(shù)據(jù)庫”中做進一步的時間確定,可能會檢索到時間可用的版本。
參考文獻:
[1]中華人民共和國國家知識產(chǎn)權(quán)局.專利審查指南[M].北京:知識產(chǎn)權(quán)出版社,2010.
[2]丁曉萍. 世界知名預(yù)印本數(shù)據(jù)庫arXiv[J]. 商丘師范學院學報,2019,(5):104-106.
(國家知識產(chǎn)權(quán)局專利局專利審查協(xié)作湖北中心? 湖北省武漢市? 430000)