• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    爬蟲技術在科技圖書館網絡信息采集中的應用

    2024-06-03 00:00:00段宏嘉
    圖書館學刊 2024年3期
    關鍵詞:信息采集爬蟲信息服務

    [摘 要]以核工業(yè)西南物理研究院圖書館的學術新聞信息采集工作為例,介紹了PyCharm軟件、requests庫和lxml庫的使用方法及爬蟲技術的使用步驟,列舉3個具有參考性的新聞信息采集應用案例,旨在方便科研人員全面且及時地掌握信息。

    [關鍵詞]爬蟲 科技圖書館 圖書館信息 信息服務 信息采集

    [分類號]G250.73

    互聯網的發(fā)展拓寬了圖書館的館藏類型,使得其采集對象從紙質印刷文獻載體擴展到網絡信息資源(即通過互聯網發(fā)布、傳遞和儲存的文獻信息資源的綜合,也稱網絡文獻[1]),網絡學術新聞信息則指的是發(fā)布在互聯網上具有學術研究參考價值的信息資源,對科研單位科技圖書館的讀者具有重要意義。該類讀者與高校圖書館和公共圖書館的讀者有所不同,科研單位的讀者以科研人員為主,對某一研究領域的最新研發(fā)動態(tài)和科研進展都有更大的需求。因此,科技圖書館應開展網絡學術新聞信息的采集工作,為讀者采集有關最新科研進展動態(tài)的學術新聞,從而方便后期為其提供便捷的學術新聞信息服務。

    不同研究領域的讀者往往具有不同的網絡學術新聞信息需求。核工業(yè)西南物理研究院(以下簡稱“核西物院”)圖書館的采集工作主要服務于核西物院的科研人員,因此采集的對象主要是核聚變(以下簡稱“聚變”)相關的學術新聞信息。由于互聯網資源更新速度快且與聚變研究相關的網頁數量大,人工手動在幾十個聚變研究機構的官網和綜合新聞網站上采集新聞費時費力,且容易出現關鍵新聞信息錯漏的問題。利用網絡爬蟲技術可快速從大量的聚變相關網站上獲取學術新聞信息,網絡爬蟲能夠按照事先編寫好的程序腳本,對目標數據進行批量采集[2]。定期采集大量網頁內容并進行存檔以供人們使用是運用網絡爬蟲的一個重要目的[3]。利用網絡爬蟲技術的自動機器采集代替人工手動采集,不僅能將核西物院圖書館工作人員從重復且機械的工作中解脫出來,還能更及時、全面地實現網絡學術新聞信息的采集,為信息的開發(fā)工作打下基礎。

    在以往的研究中,圖書館利用爬蟲技術的采集對象主要有圖書信息[2,4-5]、網絡期刊文獻信息[2,4-6]和慕課免費數字資源信息[7],采集方法主要涉及主題爬蟲法[5-8]、八爪魚爬蟲法[2]和對python的json庫、requests庫和BeautifulSoup4庫的使用[4]。這些方法都不太適用于圖書館的學術新聞信息采集工作。首先,主題爬蟲不夠精準,因為該方法會通過事先設定好的主題詞采集到許多與學術新聞無關的內容。其次,八爪魚爬蟲法不夠靈活,因為爬取新聞時,常會遇到新聞超鏈接不全的問題,而八爪魚爬蟲軟件無法判斷其完整性,也無法自動補全鏈接。最后,Python的BeautifulSoup4庫比起lxml庫的使用方法更復雜,需要程序編寫者自己思考并編寫出爬取目標的路徑代碼,不像lxml庫中的xpath方法那樣可以通過開發(fā)者模式直接復制目標的路徑代碼。

    筆者利用Python的requests庫和lxml庫對網絡學術新聞信息進行采集,補充了圖書館使用爬蟲技術的采集對象,并提供了更精確、靈活、簡便的采集方法。Python是一種可以用于網絡爬蟲的程序設計語言,它所提供的第三方庫requests和lxml可以對網頁進行處理。采集人員只需使用程序語言Python3.8,在集成開發(fā)環(huán)境PyCharm中導入requests庫和lxml庫,編寫相應的爬蟲代碼,就能實現對網絡學術新聞信息的采集。

    1 科技圖書館采集網絡學術新聞信息的重要意義

    1.1 便于圖書館提供信息服務

    科研單位科技圖書館的主要服務對象是該單位的科研人員。通常這些讀者能通過期刊類的學術文獻了解各自領域的國內外科研動態(tài)信息,但幾乎每日都會更新的網絡學術新聞不僅相對于紙質信息資源的出版速度更快,而且相對于網絡電子學術期刊(出版周期一般為年刊、季刊、雙月刊、月刊)的發(fā)布頻率更快。因此圖書館可以通過采集網絡學術新聞信息的方式為讀者提供更新的學術信息??萍紙D書館作為科研單位信息資源的匯集地,本身擔負為讀者提供信息服務、滿足讀者信息需求的重要責任。在數字化的背景下,科技圖書館不僅應該提供傳統(tǒng)紙質資源的信息服務,更應開展數字化網絡資源的特色信息服務業(yè)務。采集網絡學術新聞信息是將學術信息及時共享給科研人員的重要基礎和前提,也便于圖書館為其提供后續(xù)信息服務。

    1.2 有助于記錄學術信息資源

    網絡學術新聞信息能夠反映每個國家或研究機構最新的研究突破和研究進展,具有值得記錄的學術參考價值。如不及時對其進行采集,就會造成學術信息資源的浪費。反之,如果科研單位科技圖書館能及時、全面地采集網絡學術新聞,將有助于記錄科研發(fā)展規(guī)律。網絡信息記錄反映了某一時代的發(fā)展和變化[9],網絡學術信息記錄則能反映某一研究領域的發(fā)展和變化。如果圖書館可以采集每個研究機構官網的新聞發(fā)布日期、新聞標題、新聞內容等,并按照日期對新聞信息進行排列匯總,就能記錄特定周期內特定研究機構的科研發(fā)展規(guī)律,從而為科研人員的選題和研究規(guī)劃提供一定的參考。

    2 核西物院圖書館采集網絡學術新聞信息的特殊意義

    核西物院是從事聚變能源開發(fā)和研究的專業(yè)科研單位,其下屬圖書館屬于眾多科技圖書館中的一個。核西物院圖書館采集網絡學術新聞信息不僅具有一般科技圖書館采集此類信息的重要信息服務意義和記錄意義,還具有更特殊的意義。這是因為其群體主要由聚變領域的科研人員構成,由于這一科研領域的特殊性,他們往往較難從國內外的相關新聞網站上獲取到有價值的信息。核西物院圖書館采集網絡學術新聞信息有助于解決讀者面臨的特殊問題,從而方便其及時且全面地掌握前沿科研信息,提高獲取此類信息的效率。

    2.1 可供讀者及時且全面掌握前沿科研信息

    國內缺少專門針對聚變研究的綜合新聞網站,且新聞網站的國際聚變新聞存在更新速度慢、素材不全的問題。目前國內只有匯集了核聚變新聞和核裂變新聞的核電類新聞網站,如中國核電信息網和北極星核電網。這些網站的新聞都來源于對國內核電新聞的轉載和對國際新聞的翻譯。國際新聞的語言特點,使得其發(fā)布程序增加了人工翻譯和校對的過程。此外,可能因為截至目前,真正實現商用的核電站都是核裂變電站,所以這些網站更關注裂變新聞。以上兩個原因導致國際聚變新聞更新較慢、內容不全。以2022年9月中國核電信息網的國際核訊版塊為例,其中國際核電新聞共有79條,而國際聚變新聞僅有兩條,并且這兩條新聞都不能體現聚變研究進展。然而據筆者不完全統(tǒng)計,經篩選后9月較有價值的國際聚變新聞至少有16條。這說明盡管國際聚變新聞本身相對較少,但其真正數量也比目前國內核電類新聞網站發(fā)布得要多。國內這些網站沒有對大部分國際聚變新聞進行收集、翻譯和發(fā)布。

    考慮以上因素,聚變領域的讀者很難及時、直接地通過國內的綜合新聞網站較全面地了解聚變相關科研進展。因此圖書館采集聚變相關的網絡學術新聞能夠彌補當前國內對國際聚變新聞匯集的不足,可供讀者及時且全面地掌握相關科研進展。

    2.2 提高讀者獲取前沿科研信息的效率

    國際聚變相關新聞網站數量過于龐大,導致讀者無法快速篩選出有價值的信息,因此核西物院圖書館采集相關學術新聞信息,有助于為后續(xù)的信息篩選、翻譯、共享工作打下基礎,從而為讀者節(jié)省時間。據《2022年全球聚變行業(yè)》報告不完全統(tǒng)計,全球自1992年起已成立了32家聚變研究機構(除中國外)[10],因此相應存在許多機構官網的新聞版塊(子網站)。其他新聞網站還包括1992年前就已成立的權威聚變研究機構官網的新聞版塊,如英國原子能管理局(1954年)、美國通用原子能公司(1955年)、德國馬克斯·普朗克等離子體物理研究所(1960年)、日本國立核聚變科學研究所(1989年)官網的新聞版塊等。另外還有一些綜合類新聞網站,包括英國國際核工程網(Nuclear Engineering International)、世界核新聞網(World Nuclear News)、國際熱核試驗堆新聞網(ITER Newsline)等。

    總之,國際聚變相關新聞網站具有數量龐大的特點,而平常忙于實驗研究、數據模擬、數據分析、設備調試等工作的核西物院讀者,無法將太多時間花費在對不定期更新的海量新聞網站的檢索收集上。因此,圖書館采集上述新聞信息對讀者提高獲取前沿科研信息效率具有重要意義。

    3 爬蟲技術的使用方法與步驟

    3.1 PyCharm軟件的使用方法

    PyCharm是一個專門用于開發(fā)Python程序的集成開發(fā)環(huán)境(編程軟件),具有代碼編輯、代碼分析、語法高亮等功能[11]。爬取新聞信息的第一步是利用該軟件安裝爬蟲需要的requests庫和lxml庫。通過點擊該軟件底部的terminal命令模式、輸入“pip install requests”、回車后輸入“pip install lxml”、再按回車,就能實現兩個庫的安裝。安裝好后即可在該軟件中進行代碼的編寫。使用該軟件的另一目的,是方便圖書館工作人員直接點擊爬取到的新聞超鏈接,從而進行對新聞原網頁的訪問。這是為了解決不利用任何軟件,直接在Windows系統(tǒng)中使用CMD命令提示符打開并運行Python文件時,點擊超鏈接不跳轉的問題。

    3.2 requests庫的使用方法

    requests庫是Python的第三方庫,主要用于網頁請求和網頁爬蟲。該庫中與爬取聚變新聞信息相關的函數是requests.get(url,headers,verify)函數。其中url用于向對應的新聞網頁服務器發(fā)送請求,作為請求頭的headers用于偽裝成瀏覽器進行網頁訪問,verify則用于避免所爬取的網頁因驗證書錯誤而出現信息報錯問題。雖然信息報錯不會影響爬蟲程序的正常運行,但是,它會在爬取內容中顯示一些警告信息破壞爬取數據的美觀性。通過將verify參數設置成False可以取消驗證,從而使得爬取到的信息更干凈整潔。隨后使用response=requests.get()函數來封裝所請求的聚變新聞網頁源代碼數據,并返回網頁源代碼、保存為response對象。最后通過該庫的text方法將response對象轉化成字符串格式。

    3.3 lxml庫的使用方法

    lxml庫同樣也是Python的第三方庫,可用于網頁爬蟲,亦可解析HTML文檔,即一種以超文本標記語言提供網頁信息的文檔。該庫中與新聞網頁信息采集相關的函數是html=etree.HTML()。首先通過etree.HTML()將字符串格式的response對象轉化為HTML文檔,從而構造一個xpath可解析的對象,再將其保存為html對象。

    xpath是一種能夠在HTML文檔中查找信息的語言,可以對文檔中的元素和屬性進行定位和爬取。其大致操作方法如下:選擇任意一個與聚變研究相關的權威機構官網或綜合新聞網,從中打開聚變研究進展新聞版塊所在的網頁頁面,在Chrome瀏覽器中點擊F12鍵,調出網頁開發(fā)者模式,再使用快捷鍵“Ctrl+shift+c”進入元素選擇模式。值得注意的是,大部分網頁上會羅列多條新聞,而單條新聞的所有信息(包含新聞發(fā)布日期、超鏈接、標題、摘要和圖片等)一般呈現在一個單獨可選中的版塊上。用鼠標選中該版塊,元素頁面上就會自動定位到這些信息所在的路徑,再通過右鍵復制(點擊copy xpath)就可以得到該條新聞信息的xpath路徑(節(jié)點)。通過元素選擇模式點擊前3條新聞信息版塊,會發(fā)現其xpath路徑的共同特點。以美國通用原子公司新聞網頁為例,前3條新聞信息版塊的xpath路徑依次為:

    /html/body/div[2]/div/div/div/main/div/div[2]/div/ul/li[1]

    /html/body/div[2]/div/div/div/main/div/div[2]/div/ul/li[2]

    /html/body/div[2]/div/div/div/main/div/div[2]/div/ul/li[3]

    其中方括號里的數字表示的是括號前元素的序號,比如li[2]表示第二個li元素。對比后發(fā)現前3條新聞xpath路徑的唯一區(qū)別是li[]中的數字。將li后的方括號及數字刪除,則會得到一個包含所有新聞信息版塊的路徑。使用html.xpath()函數,將路徑插入圓括號內,就能得到一個包含了每條新聞信息版塊的路徑列表(保存為first_list對象)。利用for first in first_list函數將該列表進行遍歷循環(huán),每次循環(huán)都會從first_list列表中“取得一個元素”(一條新聞版塊的路徑)賦予first,并執(zhí)行一次代碼塊,直到列表中的所有元素都執(zhí)行了代碼塊后結束[11]。同時使用first.xpath()函數來獲取每條新聞的發(fā)布日期、超鏈接及標題等信息。具體實現方式根據網站不同略有差異,可通過text()方法來獲取節(jié)點中所需的文字內容,亦可使用“@”獲取該節(jié)點下的某條屬性內容。最后將匯總到的新聞信息輸出至屏幕。

    3.4 爬蟲技術的使用步驟

    整個爬蟲步驟大致為:(1)在PyCharm軟件中創(chuàng)建一個新的Python文件,并在該文件中導入requests庫和lxml庫。(2)選擇任意一個與聚變研究相關的權威機構官網或綜合新聞網,從中找到聚變研究進展新聞版塊所在的網頁頁面,從而確定需要爬取的url(網址)。(3)利用用戶代理使服務器能夠識別用戶的操作系統(tǒng)版本、瀏覽器版本、CPU類型等,以便偽裝成瀏覽器進行網頁訪問。(4)通過requests庫中的requests.get()函數獲取新聞網頁(url)源代碼。(5)通過lxml庫的etree.HTML()函數將字符串格式的網頁源代碼轉化成xpath可解析的HTML文檔。(6)確定需爬取的目標信息,如新聞發(fā)布時間、超鏈接和標題。(7)分析目標新聞網頁的網頁源代碼,利用xpath方法定位并復制任意一條新聞信息版塊(包含新聞發(fā)布日期、超鏈接、標題、摘要和圖片等)的xpath路徑。(8)對比2~3條新聞信息版塊的路徑,找到規(guī)律,歸納出能夠包含每條新聞信息版塊的路徑列表。(9)利用xpath()函數爬取該列表。(10)利用for…in函數將該列表進行遍歷循環(huán),并且使用xpath()函數爬取列表中每條新聞的發(fā)布日期、超鏈接及標題等信息。(11)使用print()函數和join()函數輸出干凈、整潔的新聞信息。

    4 科技圖書館學術新聞采集案例應用

    核西物院科技圖書館利用爬蟲技術采集聚變相關學術新聞信息是為了方便工作人員及時捕捉最新的新聞,從而進行篩選、翻譯或轉載,最終上傳到單位的網站上。該目的決定了爬取目標的范圍應包括新聞發(fā)布日期、超鏈接和標題。爬取新聞發(fā)布日期有利于圖書館工作人員快速判斷新聞的時效性,爬取新聞超鏈接便于工作人員快速訪問新聞原頁面、瀏覽新聞內容,爬取新聞標題則有助于工作人員判斷新聞的相關性與重要性。其他圖書館的工作人員可以按照各自的目的,自行調整爬取目標。

    筆者列舉了3個具有參考性的爬蟲應用案例。其中案例一列舉了最典型的新聞信息爬蟲代碼,所有新聞網站的爬蟲代碼都可以此為基礎;案例二和案例三列舉了爬取新聞時的常見問題、解決方案(相應代碼的修改方式)和具體代碼。

    4.1 案例一

    一些聚變新聞網頁源代碼較標準、易爬取,因而以這類網頁為爬取目標寫出的爬蟲核心代碼也較標準、適用范圍廣。其他新聞網頁的代碼只需在此類代碼上進行靈活修改即可。筆者以網頁源代碼較標準的歐洲聚變能組織(F4E)的新聞網頁作為爬取案例。其核心代碼如下:

    import requests #導入request庫

    from lxml import etree #導入lxml庫中的etree包

    url = \"https://fusionforenergy.europa.eu/news/\" #歐洲聚變能組織的新聞網址

    headers = {\"user-agent\": \"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/99.0.4844.82 Safari/537.36\"}#將爬蟲身份偽裝成瀏覽器的代理

    resp = requests.get(url,headers=headers,verify=False) #獲取并返回網頁源代碼

    html = etree.HTML(resp.text) #先將網頁源代碼轉化為字符串格式,再轉化為HTML文檔以便使用xpath函數

    first_list=html.xpath(′/html/body/div[1]/div[2]/section/ma

    in/article/div/div[2]/ul/li/div[2]′) #利用xpath方法得出包含爬取目標的路徑列表

    for first in first_list: #使用for…in循環(huán)從列表中依次取值,賦給first

    date= first.xpath(\"div[2]/div[1]/text()\") #獲取路徑節(jié)點第二個div節(jié)點下、第一個div節(jié)點下的文本內容(新聞發(fā)布日期)

    title = first.xpath(\"a/text()\") #獲取路徑節(jié)點a節(jié)點下的文本內容(新聞標題)

    site = first.xpath(\"@href\") #獲取路徑節(jié)點的href屬性內容(新聞超鏈接)

    print(\"\".join(date),\"\".join(site),\"\".join(title)) #利用join()函數把獲取的HTML文檔轉換成字符串,以使輸出的新聞發(fā)布日期、超鏈接和標題內容干凈、整潔

    resp.close() #爬取完成后關閉與服務器的連接

    print(\"over\") #輸出over,以便確定爬取過程結束

    筆者2022年10月12日運行程序后,兩秒內完成了爬蟲,爬蟲結果準確率為100%。其中新聞日期的書寫順序是“日、月、年”。爬蟲結果如圖1所示,由于爬取的標題過長,進行了剪裁。

    4.2 案例二

    爬取新聞網頁信息時遇到的常見問題之一是爬取的超鏈接不全或部分不全,從而阻礙圖書館工作人員對其進行訪問。解決此問題的辦法是:(1)對比爬取的鏈接與原鏈接的區(qū)別,從而確定需補全的url網址。(2)如果爬取的鏈接都不全,則只需在輸出爬取結果時,利用“+”合并所爬取的鏈接和需補全的鏈接,以得到完整的鏈接。(3)如果爬取鏈接只有部分不全,則使用if-else語句來判斷爬取的鏈接中是否含有http,若含有,證明爬取鏈接完整,則直接輸出鏈接;如不含有,說明“條件測試未通過”,則執(zhí)行else的操作,即通過“+”拼接鏈接[12]。

    筆者以日本國立聚變科學研究所(NIFS)的新聞網頁為爬取案例,旨在為遇到此類問題的圖書館工作人員提供可參考的解決方法。代碼結構和經典案例大致相同,只需針對鏈接存在的問題進行部分修改。其核心代碼如下:

    import requests

    from lxml import etree

    url_1 = \"https://www.nifs.ac.jp/en/news/index.html\" #日本國立聚變科學研究所新聞版塊的網址

    url_2 =\"https://www.nifs.ac.jp/en/news/\" #需補全的鏈接

    headers = {\"user-agent\": \"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/99.0.4844.82 Safari/537.36\"}

    resp = requests.get(url_1,headers=headers,verify=False)

    html = etree.HTML(resp.text)

    first_list=html.xpath(′/html/body/div[1]/div/div[1]/div/div

    /section/div[1]/div′)

    for first in first_list:

    date = first.xpath(\"div/div[2]/div[2]/span/text()\")

    site = first.xpath(\"div/div[3]/div/a/@href\")

    title= first.xpath(\"div/div[3]/h1/text()\")

    if \"http\" in \"\".join(site): #如果鏈接中含有“http”

    print(\"\".join(date),\"\".join(site),\"\".join(title))# 直接輸出鏈接

    else: #如果鏈接中未含有“http”

    print(\"\".join(date),url_2+\"\".join(site),\"\".join(title)) #使用\"+\"合并url_2和site,輸出完整的鏈接

    resp.close()

    print(\"over\")

    筆者2022年10月12日運行程序后,兩秒內完成了爬蟲,爬蟲結果準確率為100%。爬取結果如圖2所示。

    4.3 案例三

    爬取新聞網頁信息時還會遇到兩個常見問題:(1)新聞信息版塊里沒有新聞發(fā)布日期;(2)無法用同一個規(guī)律總結所有新聞信息版塊所在的xpath路徑。

    在兩種情況下可以忽略問題一:第一,如果整個網頁源代碼和新聞網頁上都缺少新聞發(fā)布日期,則無法爬?。坏诙?,如果網頁段代碼里沒有專門的新聞發(fā)布日期,并且新聞發(fā)布日期是超鏈接的一部分,則無需爬取。但是如果在該網頁上的其他版塊能找到新聞發(fā)布日期且只有兩個發(fā)布日期(匯集新聞的起止日期),則需用xpath方法對該版塊上的日期進行爬取,并且輸出利用“+”合并的起始日期、連字符和終止日期,隔時段更新的綜合新聞網站往往會出現該問題。

    針對問題二的解決方法是:第一,分析網頁源代碼,找到一條或多條新聞信息所在版塊的xpath路徑(一些網頁的首條新聞往往獨占單獨的版塊且不與其他新聞遵循同一個xpath路徑規(guī)律);第二,分析路徑規(guī)律,針對規(guī)律相同的新聞編寫新的路徑列表;第三,利用xpath()函數爬取所有路徑列表。

    綜合新聞網站國際熱核試驗堆新聞網的更新時間不固定,更新內容涵蓋某段起止日期內的一些重要科研機構的新聞。其新聞的xpath路徑遵循3種不同的規(guī)律。由于該網頁存在以上兩個問題,所以筆者以其作為爬取案例。核心代碼如下:

    import requests

    from lxml import etree

    url_1 = \"https://www.iter.org/news/whatsnew\"

    url_2 = \"https://www.iter.org\" #需補全的鏈接網址

    headers = {\"user-agent\": \"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/99.0.4844.82 Safari/537.36\"}

    resp = requests.get(url_1,headers=headers,verify=False)

    html = etree.HTML(resp.text)

    date_list=html.xpath(′//*[@id=\"maincontent\"]/div/div/div[1]/blockquote/p′) #新聞起止日期的路徑列表

    for date in date_list:

    date_start = date.xpath(\"b[1]/text()\") #新聞起始日期

    date_end = date.xpath(\"b[2]/text()\") #新聞終止日期

    print(\"\".join(date_start),\"-\"+\"\".join(date_end)) #利用“+”合并新聞起始日期、連字符和終止日期

    first_list = html.xpath (′//*[@id=\"wn_blocktop\"]/div/div/a′) #新聞路徑列表1

    for first in first_list:

    site1 = first.xpath(\"@href\")

    title1 = first.xpath(\"./div/span/text()\")

    print(url_2 + \"\".join(site1),\"\".join(title1))

    second_list = html.xpath (′//*[@id=\"wn_blockbottom\"]/div/div/a′) #新聞路徑列表2

    for second in second_list:

    site2 = second.xpath(\"@href\")

    title2 = second.xpath(\"./div/span/text()\")

    print(url_2 + \"\".join(site2),\"\".join(title2))

    third_list = html.xpath(′//*[@id=\"wn-press\"]/ul/li/div/div[2]/a′) #新聞路徑列表3

    for third in third_list:

    site3 = third.xpath(\"@href\")

    title3 = third.xpath(\"./text()\")

    print(\"\".join(site3),\"\".join(title3))

    resp.close()

    print(\"over\")

    2022年10月12日筆者運行程序后,3秒左右完成了爬蟲,爬蟲結果準確率為100%。爬蟲結果如圖3所示,因圖片太寬,只截取了部分內容。

    5 結語

    歷經3個多月對幾十個程序運行情況的跟蹤研究,筆者發(fā)現網頁源代碼偶爾會發(fā)生變化,導致爬蟲結果出現問題,但只要掌握了Python的requests庫和lxml庫的使用方法,就可以快速針對不同問題微調代碼,解決問題。這說明不能完全依賴編寫好的程序,而應該真正掌握爬蟲技術。經過實踐還發(fā)現,新聞的數量和爬蟲程序的運行時間成正比,新聞數量越多,爬蟲時間越長。雖然本身運行程序的時間很短,但還可以進一步縮短時間。如果采集人員每天都有時間運行程序,就可以修改代碼,在新聞路徑列表代碼的右側添加限制“[:2]”,讓程序只爬取最新的兩條新聞,進一步提高效率??傮w而言,該爬蟲技術具有效率高、準確率高、適用性廣的優(yōu)點。使用爬蟲程序后,核西物院圖書館的采集人員只需要記住自己最后一次運行程序的日期,以極短的時間運行程序并等待爬蟲結果,在爬取結果中定位到該日期之后發(fā)布的新聞,可以通過標題或新聞內容來篩選具有價值的新聞,就能較快速且全面地采集聚變新聞。

    綜上所述,通過掌握爬蟲技術進行定期的網絡學術新聞信息收集,核西物院圖書館解決了人工采集不及時、采集信息不全面的問題。未來在實踐中,可以根據不同的需求不斷優(yōu)化程序。如在掌握Python的os庫后可以直接在一個程序中運行事先為各個網頁編寫好的所有程序,一鍵實現對幾十個網頁的信息采集。

    筆者希望通過核西物院爬取網絡聚變新聞的個例,為各類圖書館提供一定的實踐參考方向。一方面,所有科技圖書館都應重視網絡學術新聞的采集工作。無論是哪個領域的科研單位,其首要任務都是進行學術研究,做研究則離不開創(chuàng)新。而沒有前沿的科研信息支撐,科研人員無法憑空創(chuàng)新。網絡學術新聞具有更新頻率較快、信息內容較前沿等特點,能夠對更新較慢的學術期刊類文獻做一定的補充,從而有利于科研單位的發(fā)展,因此建議其他領域的科技圖書館加強為其讀者采集網絡學術新聞的重視。另一方面,各類圖書館都可以參照筆者提出的爬蟲技術。該技術適用范圍廣泛,圖書館不但能通過該技術爬取網絡學術新聞網站,還能爬取許多其他信息網站,如圖書信息網站、政府公眾信息網站、統(tǒng)計類信息網站等。通過此技術,圖書館可以更快速、全面地獲取各類信息。不僅能為讀者提供更好的服務,而且方便圖書館開展圖書采購、基金申報、學術研究等其他工作。

    參考文獻:

    [1] 郝麗佳.高校圖書館網絡學術信息資源的開發(fā)與利用[J].科技信息,2012(36):198.

    [2] 張志勇.高校圖書館利用八爪魚網絡爬蟲技術高效采集元數據[J].現代信息科技,2019(4):4-6.

    [3] Olston C,Najork M.Web crawling[J].Foundations and trends in information retrieval,2010(3):175-246.

    [4] 荀雪蓮,姚文彬.大數據網絡爬蟲技術在智慧圖書館信息資源建設上的應用[J].北華航天工業(yè)學院學報,2020(4):20-22.

    [5] 楊學明,劉柏嵩.主題爬蟲在數字圖書館中的應用[J].圖書館雜志,2007(8):47-50,58.

    [6] 何鈞雷.以主題爬蟲視角進行數字資源的建設探析[J].電子技術與軟件工程,2014(16):17-18.

    [7] 宋宇.MOOC背景下從主題爬蟲角度看圖書館數字資源建設[J].內蒙古科技與經濟,2018(19):103-104.

    [8] 付雅慧.優(yōu)化圖書館數字化服務的途徑分析——基于主題爬蟲算法[J].蘭臺內外,2020(10):51-53.

    [9] 魏大威,季士妍.國家圖書館網絡信息資源采集與保存平臺關鍵技術實現[J].圖書館,2021(3):45-50.

    [10] Fusion Industry Association.The global fusion industry in 2022[R].Washington: FIA,2022.

    [11] 李寧.Python從菜鳥到高手[M].北京:清華大學出版社,2018.

    [12] 埃里克·馬瑟斯.Python編程:從入門到實踐[M].北京:人民郵電出版社,2016.

    段宏嘉 女,1994年生。碩士,助理館員。研究方向:圖書管理與信息服務。

    (收稿日期:2023-02-22;責編:鄧鈺。)

    猜你喜歡
    信息采集爬蟲信息服務
    利用網絡爬蟲技術驗證房地產灰犀牛之說
    基于Python的網絡爬蟲和反爬蟲技術研究
    利用爬蟲技術的Geo-Gnutel la VANET流量采集
    電子測試(2018年1期)2018-04-18 11:53:04
    大數據環(huán)境下基于python的網絡爬蟲技術
    電子制作(2017年9期)2017-04-17 03:00:46
    如何提高卷煙零售市場信息采集的有效性
    中國經貿(2016年19期)2016-12-12 21:05:17
    公共圖書館科技創(chuàng)新服務探析
    農業(yè)高校圖書館專利信息服務研究
    價值工程(2016年29期)2016-11-14 02:28:03
    計算機網絡技術在信息工程中的應用
    基于價值共創(chuàng)共享的信息服務生態(tài)系統(tǒng)協同機制研究
    科技視界(2016年18期)2016-11-03 22:02:50
    電力信息采集系統(tǒng)中對載波現場測試儀的應用
    日韩在线高清观看一区二区三区| av在线观看视频网站免费| av在线亚洲专区| 国产精品久久久久久精品电影小说 | 亚洲四区av| 校园人妻丝袜中文字幕| 国产 一区精品| 成人午夜精彩视频在线观看| 亚洲最大成人手机在线| 久久午夜福利片| 青青草视频在线视频观看| 99热网站在线观看| 国产成人精品福利久久| 国产精品麻豆人妻色哟哟久久 | 乱码一卡2卡4卡精品| 久久久久精品性色| 嫩草影院精品99| 日韩欧美精品v在线| 中文字幕亚洲精品专区| 又粗又硬又长又爽又黄的视频| 国产又色又爽无遮挡免| 久久久久久久大尺度免费视频| 久久午夜福利片| 天美传媒精品一区二区| 一级毛片 在线播放| 免费看不卡的av| 日本三级黄在线观看| 亚洲精品国产av成人精品| 欧美日韩视频高清一区二区三区二| 五月玫瑰六月丁香| 在线观看一区二区三区| 深夜a级毛片| 日韩一本色道免费dvd| 1000部很黄的大片| 肉色欧美久久久久久久蜜桃 | 黄色欧美视频在线观看| 尤物成人国产欧美一区二区三区| 日韩一区二区三区影片| 禁无遮挡网站| 一个人观看的视频www高清免费观看| 美女黄网站色视频| 综合色丁香网| 日韩一区二区三区影片| 天堂av国产一区二区熟女人妻| 女人久久www免费人成看片| 久久久久久九九精品二区国产| 日韩制服骚丝袜av| 欧美zozozo另类| 国产黄色视频一区二区在线观看| 联通29元200g的流量卡| 一级毛片黄色毛片免费观看视频| 精品久久久久久电影网| 一区二区三区免费毛片| 蜜桃亚洲精品一区二区三区| 中文资源天堂在线| 成人毛片a级毛片在线播放| 最新中文字幕久久久久| 久久97久久精品| 日韩 亚洲 欧美在线| 99久久人妻综合| 成人一区二区视频在线观看| 精品国产露脸久久av麻豆 | 欧美zozozo另类| 国产成人aa在线观看| 亚洲人成网站在线播| 女的被弄到高潮叫床怎么办| 中文资源天堂在线| 插阴视频在线观看视频| 久久久久久久久久久丰满| 高清视频免费观看一区二区 | 精品久久久久久久末码| 欧美成人午夜免费资源| 大香蕉久久网| 亚洲国产精品sss在线观看| 最新中文字幕久久久久| 久久韩国三级中文字幕| 极品教师在线视频| 国产激情偷乱视频一区二区| 国产免费一级a男人的天堂| 男人舔女人下体高潮全视频| 国产黄色小视频在线观看| 51国产日韩欧美| 99热这里只有是精品50| 夫妻性生交免费视频一级片| 亚洲国产av新网站| 97热精品久久久久久| 国产精品蜜桃在线观看| 久久久久久久久久成人| av播播在线观看一区| 久久久国产一区二区| 好男人视频免费观看在线| 国产一级毛片在线| 久久亚洲国产成人精品v| 久久久久久久久久人人人人人人| 精品一区二区免费观看| 天天躁日日操中文字幕| 精品99又大又爽又粗少妇毛片| 久久亚洲国产成人精品v| 亚洲精品aⅴ在线观看| 久久久成人免费电影| 免费大片18禁| 国产在视频线精品| 极品教师在线视频| 熟妇人妻久久中文字幕3abv| 欧美日韩精品成人综合77777| 我要看日韩黄色一级片| 精品一区二区三区视频在线| 乱码一卡2卡4卡精品| 三级经典国产精品| av免费观看日本| 亚洲精品国产成人久久av| 国产精品嫩草影院av在线观看| 亚洲精品国产av蜜桃| kizo精华| 国产精品综合久久久久久久免费| 国产欧美另类精品又又久久亚洲欧美| 在线 av 中文字幕| 国产激情偷乱视频一区二区| 久久久亚洲精品成人影院| 婷婷六月久久综合丁香| 91久久精品国产一区二区成人| 久久99热6这里只有精品| 国产在线男女| 国产精品一区二区性色av| 亚洲av.av天堂| 国精品久久久久久国模美| 午夜激情福利司机影院| 午夜视频国产福利| 日产精品乱码卡一卡2卡三| 亚洲av男天堂| 简卡轻食公司| 欧美潮喷喷水| 亚洲精品亚洲一区二区| 午夜亚洲福利在线播放| 中文字幕免费在线视频6| 国内精品一区二区在线观看| 日韩大片免费观看网站| 亚洲综合精品二区| 亚洲三级黄色毛片| 久久精品人妻少妇| 一级二级三级毛片免费看| 一级av片app| 国产午夜精品论理片| 汤姆久久久久久久影院中文字幕 | 午夜激情福利司机影院| 国产伦在线观看视频一区| 亚洲精品久久久久久婷婷小说| or卡值多少钱| 亚洲精品456在线播放app| 联通29元200g的流量卡| 久久99蜜桃精品久久| 舔av片在线| 少妇熟女欧美另类| 赤兔流量卡办理| 22中文网久久字幕| 日本猛色少妇xxxxx猛交久久| 一级毛片我不卡| 美女被艹到高潮喷水动态| 三级国产精品欧美在线观看| 精品久久久久久久久av| 啦啦啦啦在线视频资源| 国内精品一区二区在线观看| 免费不卡的大黄色大毛片视频在线观看 | 国产v大片淫在线免费观看| 91狼人影院| 街头女战士在线观看网站| 精品国产三级普通话版| 性色avwww在线观看| 极品少妇高潮喷水抽搐| 纵有疾风起免费观看全集完整版 | 啦啦啦啦在线视频资源| 白带黄色成豆腐渣| 在线免费观看的www视频| 国模一区二区三区四区视频| 天堂影院成人在线观看| 国产黄频视频在线观看| 女人十人毛片免费观看3o分钟| 国产精品久久久久久久久免| 伦理电影大哥的女人| 黄片wwwwww| 亚洲国产精品成人综合色| 久久久久久久国产电影| 久久久久久久久久人人人人人人| 亚洲内射少妇av| 熟女人妻精品中文字幕| 久久这里有精品视频免费| 国产精品综合久久久久久久免费| 久久综合国产亚洲精品| 狠狠精品人妻久久久久久综合| 国内精品一区二区在线观看| 亚洲精品乱久久久久久| 大香蕉97超碰在线| 欧美 日韩 精品 国产| 搞女人的毛片| 欧美另类一区| 91在线精品国自产拍蜜月| 久久草成人影院| 久久久久国产网址| 久久99热这里只有精品18| 69人妻影院| 嘟嘟电影网在线观看| 亚洲性久久影院| 亚洲熟女精品中文字幕| 国语对白做爰xxxⅹ性视频网站| 久久久a久久爽久久v久久| 国产有黄有色有爽视频| 天堂√8在线中文| 日韩 亚洲 欧美在线| 国产精品不卡视频一区二区| 精品国产三级普通话版| 毛片女人毛片| 久久精品熟女亚洲av麻豆精品 | 亚洲欧美成人综合另类久久久| 色播亚洲综合网| 久久精品国产鲁丝片午夜精品| 成人亚洲精品一区在线观看 | 久久久久久久午夜电影| 极品教师在线视频| 国产熟女欧美一区二区| 久久这里只有精品中国| 好男人视频免费观看在线| 久久精品久久久久久久性| 国产高清三级在线| 国产在线一区二区三区精| 高清在线视频一区二区三区| www.av在线官网国产| www.av在线官网国产| 高清午夜精品一区二区三区| 老司机影院毛片| 日韩一本色道免费dvd| av国产免费在线观看| 少妇的逼好多水| 欧美性感艳星| 国模一区二区三区四区视频| 男人爽女人下面视频在线观看| 婷婷色av中文字幕| av在线老鸭窝| 伦精品一区二区三区| 国产免费福利视频在线观看| 国产精品综合久久久久久久免费| 午夜日本视频在线| 我的女老师完整版在线观看| 在线免费观看的www视频| 亚洲国产精品成人综合色| 天堂俺去俺来也www色官网 | 伦理电影大哥的女人| av免费在线看不卡| 久久精品夜色国产| 三级经典国产精品| 亚洲精品自拍成人| 久久韩国三级中文字幕| 久久久精品免费免费高清| 三级男女做爰猛烈吃奶摸视频| 我的女老师完整版在线观看| 人妻系列 视频| 国产精品一区二区三区四区免费观看| 美女大奶头视频| 麻豆国产97在线/欧美| av女优亚洲男人天堂| 国产成人精品一,二区| 一区二区三区高清视频在线| 一级二级三级毛片免费看| 极品教师在线视频| 亚洲av日韩在线播放| 久久精品综合一区二区三区| 亚洲欧美日韩卡通动漫| 国产精品国产三级国产专区5o| 国产成人午夜福利电影在线观看| 免费观看a级毛片全部| 欧美性感艳星| 中文字幕免费在线视频6| 网址你懂的国产日韩在线| 亚洲av免费在线观看| 欧美极品一区二区三区四区| 看十八女毛片水多多多| 嫩草影院新地址| 日日啪夜夜爽| 日本-黄色视频高清免费观看| 在线免费观看的www视频| 麻豆精品久久久久久蜜桃| 日韩,欧美,国产一区二区三区| 国产精品av视频在线免费观看| 亚洲国产精品成人久久小说| 午夜福利在线观看免费完整高清在| 男女国产视频网站| 高清在线视频一区二区三区| 亚洲精品自拍成人| 久久韩国三级中文字幕| 国产激情偷乱视频一区二区| 色综合亚洲欧美另类图片| 老司机影院成人| 内射极品少妇av片p| 亚洲国产av新网站| 国产精品一二三区在线看| 日韩成人伦理影院| 成人毛片a级毛片在线播放| 人人妻人人看人人澡| 十八禁网站网址无遮挡 | 伦精品一区二区三区| 国产日韩欧美在线精品| 黄色一级大片看看| 看非洲黑人一级黄片| 美女xxoo啪啪120秒动态图| 丰满少妇做爰视频| av线在线观看网站| 人体艺术视频欧美日本| 国产精品av视频在线免费观看| 久久6这里有精品| 国产美女午夜福利| 18+在线观看网站| 亚洲第一区二区三区不卡| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 男女啪啪激烈高潮av片| 国产亚洲最大av| 久久久精品94久久精品| 亚洲国产精品成人久久小说| 国产成人精品一,二区| 欧美精品一区二区大全| 偷拍熟女少妇极品色| 成年免费大片在线观看| 伊人久久精品亚洲午夜| 久久久久久久久大av| 国产精品嫩草影院av在线观看| 日韩一区二区视频免费看| 国产黄色免费在线视频| 免费看美女性在线毛片视频| 亚洲一区高清亚洲精品| 啦啦啦韩国在线观看视频| 亚洲精品aⅴ在线观看| 久久久久精品久久久久真实原创| 婷婷色麻豆天堂久久| av一本久久久久| 乱系列少妇在线播放| 又爽又黄a免费视频| 免费av不卡在线播放| 日本午夜av视频| 亚洲av日韩在线播放| 亚洲精品日韩av片在线观看| 国产精品精品国产色婷婷| 国产单亲对白刺激| 熟妇人妻久久中文字幕3abv| 亚洲欧洲国产日韩| 亚洲欧美日韩卡通动漫| 亚洲国产精品国产精品| 亚洲经典国产精华液单| 免费av毛片视频| 日韩欧美精品免费久久| 亚洲精品一区蜜桃| 国产亚洲精品av在线| 成年女人看的毛片在线观看| 国产黄频视频在线观看| 国产 一区 欧美 日韩| 成年女人在线观看亚洲视频 | 日韩av免费高清视频| 丝袜美腿在线中文| 亚洲不卡免费看| 网址你懂的国产日韩在线| 亚洲欧洲国产日韩| 男女边吃奶边做爰视频| 一区二区三区四区激情视频| 国产亚洲精品久久久com| 国产亚洲5aaaaa淫片| 精品久久久久久久久av| 乱系列少妇在线播放| 久久精品熟女亚洲av麻豆精品 | 国产精品久久久久久久电影| 精品熟女少妇av免费看| 亚洲av中文av极速乱| 纵有疾风起免费观看全集完整版 | 日本与韩国留学比较| 一级二级三级毛片免费看| 亚洲国产精品成人久久小说| 搡老妇女老女人老熟妇| 十八禁国产超污无遮挡网站| 亚洲欧美日韩无卡精品| 亚洲欧美清纯卡通| 免费看不卡的av| 少妇丰满av| 国产成人aa在线观看| 99re6热这里在线精品视频| 床上黄色一级片| 久久久久久久国产电影| 久久久午夜欧美精品| 国产黄色小视频在线观看| 成人鲁丝片一二三区免费| 欧美不卡视频在线免费观看| 天堂av国产一区二区熟女人妻| av在线观看视频网站免费| 好男人视频免费观看在线| 国产欧美日韩精品一区二区| 国产午夜精品久久久久久一区二区三区| 午夜福利在线观看吧| 中文在线观看免费www的网站| 色网站视频免费| 亚洲自偷自拍三级| 男人爽女人下面视频在线观看| a级一级毛片免费在线观看| 国产精品1区2区在线观看.| 久久久久久伊人网av| 久久午夜福利片| 久久久久久久国产电影| 亚洲成人av在线免费| 免费电影在线观看免费观看| 国产片特级美女逼逼视频| 国产淫语在线视频| av网站免费在线观看视频 | 亚洲精品日韩在线中文字幕| 一区二区三区四区激情视频| 欧美丝袜亚洲另类| 国产成人午夜福利电影在线观看| 我的老师免费观看完整版| 少妇的逼好多水| 青春草国产在线视频| 成年版毛片免费区| 免费电影在线观看免费观看| 欧美xxxx性猛交bbbb| 成人高潮视频无遮挡免费网站| 男人舔女人下体高潮全视频| 国模一区二区三区四区视频| 国产av不卡久久| 亚洲精品国产成人久久av| 91精品国产九色| 搞女人的毛片| 亚洲精品日韩av片在线观看| 日本一二三区视频观看| 黄色欧美视频在线观看| 国产黄频视频在线观看| 能在线免费看毛片的网站| 国产伦在线观看视频一区| 日韩欧美三级三区| 51国产日韩欧美| 亚洲色图av天堂| 久久人人爽人人爽人人片va| 欧美丝袜亚洲另类| 少妇熟女aⅴ在线视频| 少妇人妻一区二区三区视频| 国产极品天堂在线| 一本久久精品| 波野结衣二区三区在线| 夫妻午夜视频| 午夜精品一区二区三区免费看| 日韩一本色道免费dvd| 天美传媒精品一区二区| 国产乱人偷精品视频| 国产精品一区二区三区四区免费观看| 亚洲精品456在线播放app| 久久精品国产亚洲av涩爱| 美女国产视频在线观看| 秋霞在线观看毛片| 大香蕉久久网| 国产精品人妻久久久影院| 国产亚洲一区二区精品| 插逼视频在线观看| or卡值多少钱| 中文在线观看免费www的网站| 男女边摸边吃奶| av在线播放精品| 老师上课跳d突然被开到最大视频| 亚洲最大成人手机在线| 国产精品一区www在线观看| 国产成人午夜福利电影在线观看| 2022亚洲国产成人精品| 亚洲内射少妇av| 欧美xxxx性猛交bbbb| 欧美潮喷喷水| 永久免费av网站大全| 舔av片在线| 亚洲图色成人| 边亲边吃奶的免费视频| 久久综合国产亚洲精品| 中文字幕免费在线视频6| 永久免费av网站大全| 国产成年人精品一区二区| 三级国产精品片| 日韩在线高清观看一区二区三区| 久久国产乱子免费精品| 卡戴珊不雅视频在线播放| 国产色爽女视频免费观看| 午夜日本视频在线| 亚洲精品自拍成人| 久久99精品国语久久久| 欧美成人一区二区免费高清观看| 亚洲av成人精品一区久久| 欧美精品一区二区大全| 日本猛色少妇xxxxx猛交久久| 秋霞在线观看毛片| 亚洲真实伦在线观看| 又爽又黄无遮挡网站| 3wmmmm亚洲av在线观看| 成年av动漫网址| 婷婷六月久久综合丁香| 丝袜喷水一区| 爱豆传媒免费全集在线观看| 成人综合一区亚洲| 精品一区在线观看国产| 国产伦理片在线播放av一区| 青青草视频在线视频观看| 岛国毛片在线播放| 亚洲精品影视一区二区三区av| 三级经典国产精品| 能在线免费看毛片的网站| 大话2 男鬼变身卡| 亚洲最大成人手机在线| 欧美精品一区二区大全| 日韩一区二区三区影片| 中文字幕av成人在线电影| 日本一二三区视频观看| 日本免费在线观看一区| 免费看美女性在线毛片视频| 国产伦一二天堂av在线观看| 亚洲国产精品sss在线观看| 久久人人爽人人片av| 2022亚洲国产成人精品| 亚洲成人一二三区av| 精品国产三级普通话版| 欧美成人午夜免费资源| 美女黄网站色视频| 联通29元200g的流量卡| 日本猛色少妇xxxxx猛交久久| 十八禁国产超污无遮挡网站| 日本午夜av视频| 国产中年淑女户外野战色| 最近中文字幕2019免费版| 免费观看的影片在线观看| 国产午夜福利久久久久久| 18禁裸乳无遮挡免费网站照片| 色综合色国产| 日日干狠狠操夜夜爽| 亚洲色图av天堂| av在线播放精品| 十八禁网站网址无遮挡 | 国产 亚洲一区二区三区 | 女人被狂操c到高潮| 亚洲精品乱码久久久久久按摩| 亚洲最大成人手机在线| 91久久精品电影网| 久久精品久久久久久久性| 国产av在哪里看| 亚洲成人久久爱视频| av网站免费在线观看视频 | 国内精品一区二区在线观看| 国产精品久久视频播放| 国产一级毛片七仙女欲春2| 日韩 亚洲 欧美在线| 日韩一本色道免费dvd| 国产精品国产三级国产专区5o| 日韩精品青青久久久久久| 韩国av在线不卡| 街头女战士在线观看网站| 午夜福利成人在线免费观看| 在线观看一区二区三区| 亚洲天堂国产精品一区在线| 一级片'在线观看视频| 国产在线男女| 国国产精品蜜臀av免费| 午夜精品一区二区三区免费看| 国产亚洲91精品色在线| 人妻系列 视频| 特大巨黑吊av在线直播| 只有这里有精品99| 99久久精品国产国产毛片| av福利片在线观看| 国产精品久久久久久av不卡| h日本视频在线播放| 卡戴珊不雅视频在线播放| 最近中文字幕2019免费版| 2021少妇久久久久久久久久久| 午夜福利在线观看免费完整高清在| 精品欧美国产一区二区三| 国产三级在线视频| 直男gayav资源| 少妇的逼好多水| 亚洲在久久综合| 色播亚洲综合网| av在线蜜桃| 国产精品伦人一区二区| 我的女老师完整版在线观看| 国产午夜精品一二区理论片| 久久综合国产亚洲精品| 亚洲成人av在线免费| 国产美女午夜福利| eeuss影院久久| videos熟女内射| 国产亚洲最大av| 女人久久www免费人成看片| 国产亚洲av嫩草精品影院| 亚洲精品自拍成人| 亚洲av不卡在线观看| 久久精品国产自在天天线| 嫩草影院新地址| 精品酒店卫生间| 在线 av 中文字幕| 亚洲欧美精品专区久久| 亚洲图色成人| 国产精品日韩av在线免费观看| 国产亚洲精品av在线| 国模一区二区三区四区视频| 我的老师免费观看完整版| 乱系列少妇在线播放| 亚洲成人精品中文字幕电影| 国产在视频线在精品| 亚洲国产欧美人成| 麻豆成人av视频| 91在线精品国自产拍蜜月| 亚洲成人av在线免费| 一本一本综合久久| 精品酒店卫生间| 国产亚洲av嫩草精品影院| 亚洲av二区三区四区| 国产精品综合久久久久久久免费| 97热精品久久久久久| 国内少妇人妻偷人精品xxx网站| 国产精品国产三级国产专区5o| 最新中文字幕久久久久| 欧美一级a爱片免费观看看|