• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Scrapy框架的微博用戶信息采集系統(tǒng)設(shè)計與實現(xiàn)

    2024-01-27 08:12:22朱燁行
    現(xiàn)代信息科技 2023年24期
    關(guān)鍵詞:網(wǎng)絡(luò)爬蟲微博

    朱燁行 等

    趙寶瑩? 張明杰? 魏笑笑? 衛(wèi)昆

    摘? 要:為深入了解新浪微博用戶的有關(guān)情況,從中找出最有影響力的微博用戶,發(fā)現(xiàn)當(dāng)前新浪微博中的意見領(lǐng)袖,需要知道每位微博用戶迄今為止已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù)等信息。為此使用Python語言設(shè)計實現(xiàn)了一個基于Scrapy框架的網(wǎng)絡(luò)爬蟲,該爬蟲根據(jù)輸入的微博用戶標(biāo)識號ID抓取該用戶目前已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù)等信息。由于要連續(xù)多次訪問微博網(wǎng)站,為了不讓微博網(wǎng)站拒絕訪問,在設(shè)計的爬蟲中使用了用戶代理和IP代理,其中IP代理選用隧道代理這一動態(tài)類型。實驗結(jié)果表明下載七千多位微博用戶的信息用時6小時22分鐘。

    關(guān)鍵詞:Scrapy;網(wǎng)絡(luò)爬蟲;微博;用戶代理;IP代理

    中圖分類號:TP311.1? ? 文獻(xiàn)標(biāo)識碼:A? 文章編號:2096-4706(2023)24-0041-05

    Design and Implementation of Weibo User Information Collection System

    Based on Scrapy Framework

    ZHU Yehang1, ZHAO Baoying2, ZHANG Mingjie3, WEI Xiaoxiao1, WEI Kun3

    (1.School of Modern Post, Xi'an University of Posts and Telecommunications, Xi'an? 710121, China;

    2.Information Technology Center, Luoyang Institute of Science and Technology, Luoyang? 471023, China;

    3.College of Economics and Management, Xi'an University of Posts and Telecommunications, Xi'an? 710121, China)

    Abstract: To gain a deeper understanding of Sina Weibo users' information, from which to identify the most influential Weibo users, discover opinion leaders on current Sina Weibo, it is necessary to know the number of Weibo posts, followers and fans of every Weibo user so far. To this end, a Web crawler based on the Scrapy framework is designed and implemented in Python language. The crawler captures the number of Weibo posts, followers, fans published by the user according to the Weibo user ID entered. We have to visit Weibo website for many times in succession, to prevent Weibo website from denying access, the User Agent and IP Proxy are used in the designed crawler. Among them, the IP proxy selects the dynamic type of tunnel proxy. The experimental results show that it takes 6 hours and 22 minutes to download the information of more than 7 000 Weibo users.

    Keywords: Scrapy; Web crawler; Weibo; User Agent; IP Proxy

    0? 引? 言

    新浪微博又名“微博”,于2009年上線,是一個中國的社交媒體平臺,截至2023年5月,其月活躍用戶為5.86億,日活躍用戶為2.52億[1]。可通過個人計算機(jī)、手機(jī)等設(shè)備接入該平臺,通過文字、圖片、視頻等方式,實現(xiàn)信息互動傳播、即時分享。

    本文所說的微博用戶信息指的是微博用戶當(dāng)前已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù),這些數(shù)據(jù)對刻畫微博用戶很有幫助,可用于確定微博用戶影響力、找出意見領(lǐng)袖等方面[2]。

    1? 相關(guān)技術(shù)及原理

    1.1? 網(wǎng)絡(luò)爬蟲

    網(wǎng)絡(luò)爬蟲是按規(guī)則自動抓取Web網(wǎng)上數(shù)據(jù)的程序。主要由控制器、解析器、資源庫等組成??刂破魃暾堃粋€線程調(diào)用爬蟲獲取網(wǎng)頁內(nèi)容。解析器下載網(wǎng)頁,過濾并分析其中的數(shù)據(jù)。資源庫存儲下載的數(shù)據(jù)[3]。

    首先給出一組統(tǒng)一資源定位符(URL)值作為種子,網(wǎng)絡(luò)爬蟲依次訪問其中的每一個URL值,下載相應(yīng)網(wǎng)頁,找到在這些網(wǎng)頁中的URL鏈接地址并據(jù)此下載新的網(wǎng)頁,在新的網(wǎng)頁中找新的URL鏈接地址并下載對應(yīng)的網(wǎng)頁,這樣循環(huán)下去,直到相關(guān)網(wǎng)頁抓完為止[4]。

    1.2? 網(wǎng)絡(luò)爬蟲框架Scrapy

    框架就是半成品,集成很多功能、具有較強(qiáng)通用性的項目模板。Scrapy是用Python寫的一個Web抓取框架,其中的引擎、調(diào)度器不需要用戶編寫,而其中的Spiders、Item Pipeline需要用戶編寫。Scrapy是為網(wǎng)頁抓取而設(shè)計,也可用于通用的網(wǎng)絡(luò)爬蟲[3]。

    2? 系統(tǒng)設(shè)計

    2.1? 具體實現(xiàn)流程

    2.1.1? 安裝Scrapy

    在操作系統(tǒng)Windows 7下安裝Scrapy的方法是先安裝好Python,在命令行模式下使用pip命令即可安裝:pip install scrapy[4]。

    2.1.2? 創(chuàng)建Scrapy工程

    在命令行模式下進(jìn)入現(xiàn)有的任一目錄,如“>cd G:\gzhuyehang\scrapyProject”,運(yùn)行命令“>scrapy startproject zSinaUser”。即可創(chuàng)建Scrapy工程zSinaUser,并在當(dāng)前已存在目錄下新生成目錄zSinaUser,在它下面生成配置文件scrapy.cfg和另外一個名稱同為zSinaUser的目錄,在第二個zSinaUser目錄下生成一個目錄spiders和四個文件items.py、middlewares.py、pipelines.py、settings.py[5]。

    2.1.3? 創(chuàng)建一個爬蟲文件

    在命令行模式下進(jìn)入目錄“>cd G:\gzhuyehang\scrapyProject\zSinaUser”,運(yùn)行如下命令:

    >scrapy genspider userInfoSpider weibo.cn。使用scrapy genspider命令在目錄spiders下創(chuàng)建一個名字為userInfoSpider.py的文件,這個文件搜索的域為weibo.cn,之所以選weibo.cn而不選weibo.com,是因為weibo.cn中頁面較簡單而且反爬蟲措施較弱[5]。

    2.2? 有關(guān)文件分析

    本文設(shè)計實現(xiàn)的Scrapy框架爬蟲最終文件目錄結(jié)構(gòu)如圖1所示。下面對其中各有關(guān)文件進(jìn)行分析。

    2.2.1? 文件userInfoSpider.py

    該文件用于從輸入文件中讀取用戶標(biāo)識號ID,并向微博網(wǎng)站發(fā)起請求,從網(wǎng)站返回內(nèi)容中提取相應(yīng)用戶已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù),并把這些數(shù)據(jù)返回給Scrapy引擎[6]。

    該文件包含一個類class UserinfospiderSpider(scrapy.Spider),其中包含有兩個函數(shù):start_requests和parse_user,分別介紹如下:

    1)函數(shù)start_requests(self)。該函數(shù)從輸入文件z0420userid.txt中每次讀入一行內(nèi)容,這行內(nèi)容是一個微博用戶的標(biāo)識號ID,用該ID號形成該用戶的微博主頁地址,調(diào)用函數(shù)Request訪問該網(wǎng)頁。如此反復(fù)直到讀完該文件中所有行的內(nèi)容為止[7]。

    2)函數(shù)parse_user(self, response)。其中的參數(shù)response是讀取某一位微博用戶主頁的返回內(nèi)容,從中提取出該微博用戶標(biāo)識號ID、微博數(shù)、關(guān)注數(shù)、粉絲數(shù)共四個屬性數(shù)據(jù),組成item項并返回給Scrapy引擎[7]。

    2.2.2? 文件customUserAgent.py

    這是用戶代理隨機(jī)挑選文件,在zmiddlewares目錄下,用于從文件resource.py中的列表UserAgents中隨機(jī)挑選一個瀏覽器的名稱,并把它設(shè)置為當(dāng)前缺省的用戶代理[8]。

    2.2.3? 文件resource.py

    該文件是用戶代理列表文件,在zmiddlewares目錄下,在其中定義列表UserAgents,該列表中存放的是30個不同的瀏覽器的名稱[9]。

    2.2.4? 文件items.py

    該文件定義要爬取的數(shù)據(jù)項。

    2.2.5? 文件middlewares.py

    該文件中的類class ProxyDownloaderMiddleware,用來設(shè)置隧道代理服務(wù)器的域名、端口號、用戶名、密碼等[10]。

    2.2.6? 文件pipelines.py

    該文件輸出文本文件“z0421test.txt”,每行的四個數(shù)分別表示用戶標(biāo)識號ID,該用戶已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù)等。

    2.2.7? 文件settings.py

    該文件是配置文件,給出了一些參數(shù)的值。

    1)DOWNLOAD_DELAY = 6,代表爬蟲訪問完一個頁面再訪問下一個頁面時需要等待的時間間隔。如果間隔時間太短,網(wǎng)站會發(fā)現(xiàn)是爬蟲在訪問網(wǎng)站,從而拒絕訪問。

    2)COOKIES_ENABLED = False,設(shè)置為不用cookies。如果使能cookies,則微博網(wǎng)站會發(fā)現(xiàn)每次是同一個用戶在訪問該網(wǎng)站,從而拒絕訪問。

    3)程序如何輸出。如下結(jié)構(gòu)中的內(nèi)容表明使用項目zSinaUser中文件pipelines.py中的類class ZsinauserPipeline來輸出:

    ITEM_PIPELINES = {'zSinaUser.pipelines.ZsinauserPipeline': 300,}

    4)ROBOTSTXT_OBEY = False:表示爬取內(nèi)容不符合robots協(xié)議時仍要爬取[11]。

    2.2.8? 文件begin.py

    調(diào)試運(yùn)行程序時文件begin.py應(yīng)用說明如下:

    1)在Python的集成開發(fā)環(huán)境PyCharm中,為了避免每一次運(yùn)行或調(diào)試程序都輸入一串命令,可以在工程目錄“>cd G:\gzhuyehang\scrapyProject\zSinaUser”下創(chuàng)建一個文件,名字可為begin.py,也可命名為其他名字。在PyCharm的運(yùn)行選項配置中寫入該文件名字,這樣每次點(diǎn)擊運(yùn)行菜單命令時就會首先運(yùn)行該文件的腳本,從而啟動該爬蟲工作,下載網(wǎng)站上的相關(guān)數(shù)據(jù)[12]。該文件內(nèi)容如下:

    from scrapy import cmdline

    cmdline.execute('scrapy crawl userInfoSpider'.split())

    其中“userInfoSpider”為本文2.1.3節(jié)中給出的名字,是該爬蟲的名字。

    2)若想在命令行模式下調(diào)試運(yùn)行程序,就不需要文件begin.py,可直接進(jìn)入命令行模式,運(yùn)行命令:>scrapy crawl userInfoSpider。

    2.2.9? 文件scrapy.cfg

    該文件是整個Scrapy項目的配置文件,其內(nèi)容如下:

    [settings]

    default = zSinaUser.settings

    [deploy]

    #url = http://localhost:6800/

    project = zSinaUser

    該文件聲明了兩件事,一是定義默認(rèn)設(shè)置文件的位置為zSinaUser目錄下的settings.py文件,二是定義項目名稱為zSinaUser。

    2.3? 獲取cookie步驟

    步驟如下:

    1)用谷歌瀏覽器Chrome打開網(wǎng)址https://www.weibo.com/。

    2)點(diǎn)擊“立即登錄”,完成手機(jī)驗證碼驗證,進(jìn)入微博平臺里面。

    3)按鍵盤功能鍵F12打開開發(fā)者工具(或鼠標(biāo)右擊網(wǎng)頁空白處,在彈出菜單中點(diǎn)擊條目“檢查”),在Network標(biāo)簽下選擇Fetch/XHR,在頁面左側(cè)的Name框中點(diǎn)擊某一行,再在頁面右側(cè)的標(biāo)簽Headers下的Request Headers下,找到“Cookie: ”后的值,把它復(fù)制拷貝到文件settings.py中結(jié)構(gòu)DEFAULT_REQUEST_HEADERS的關(guān)鍵詞“cookie”后,如下所示[13]:

    DEFAULT_REQUEST_HEADERS = {? ?'Accept-Language': 'en',

    'cookie':'SINAGLOBAL=3374182609874.5854. ……Num%22%3A42%2C%22msgbox%22%3A0%7D'}

    2.4? 用戶代理

    若總是用同一個瀏覽器訪問微博網(wǎng)站,網(wǎng)站就會發(fā)覺是爬蟲在訪問它從而拒絕訪問。為了不讓微博網(wǎng)站發(fā)現(xiàn)是程序在訪問,在下載微博期間可不斷變換瀏覽器名稱,具體做法是每次從瀏覽器名稱列表中隨機(jī)挑選出一個瀏覽器名稱來訪問微博網(wǎng)站,這樣瀏覽器名稱在不斷變化,微博網(wǎng)站就會認(rèn)為是不同的用戶在訪問它,從而不會拒絕訪問。在文件settings.py中的結(jié)構(gòu)DOWNLOADER_MIDDLEWARES中,如下顯示的前一行表示使用我們自己提供的可不斷變換挑選的用戶代理,后一行表示禁用框架Scrapy中原有的用戶代理[14]。

    DOWNLOADER_MIDDLEWARES = {? ? ……

    'zSinaUser.zmiddlewares.customUserAgent.RandomUserAgent':30,

    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware':None,? ?}

    其中前一行表示啟用目錄zSinaUser下的目錄zmiddlewares下的文件customUserAgent.py中的類class RandomUserAgent來設(shè)置本次請求訪問Request所使用的用戶代理的值,具體實現(xiàn)的語句如下:

    ua = random.choice(UserAgents)

    request.headers.setdefault('User-Agent',ua)

    前一句表示從文件resource.py中的列表UserAgents中隨機(jī)挑選一個瀏覽器的名稱,后一句表示把挑選出的瀏覽器的名稱設(shè)置為當(dāng)前請求Request的用戶代理[8]。

    文件resource.py中用戶代理列表UserAgents的內(nèi)容是30個不同的瀏覽器的名稱,內(nèi)容如下所示:

    UserAgents = [? ? "Mozilla/5.0 (Linux; U; Android 1.5; en-us; sdk Build/CUPCAKE) AppleWebkit/528.5? (KHTML, like Gecko) Version/3.1.2 Mobile Safari/525.

    20.1",? ? ……….]

    2.5? IP代理

    若長時間總是用同一個IP地址訪問微博網(wǎng)站,那微博網(wǎng)站就會發(fā)現(xiàn)是爬蟲在訪問它,從而拒絕訪問。為此我們從快代理公司購買了隧道代理服務(wù)功能,可在訪問網(wǎng)站的過程中每隔一定時間變換IP值,比如每隔一分鐘變換一次IP值,而且這些IP值是從上萬個不同的IP值中選出,從而基本上不重復(fù),這就讓微博網(wǎng)站難以發(fā)現(xiàn)是爬蟲程序在下載數(shù)據(jù)[15]。

    為此我們在文件settings.py中的結(jié)構(gòu)DOWNLOADER_MIDDLEWARES中,設(shè)置了一項,如下所示:

    DOWNLOADER_MIDDLEWARES = {…… 'zSinaUser.middlewares.ProxyDownloaderMiddleware': 100,}

    即調(diào)用目錄zSinaUser下的文件middlewares.py中的類class ProxyDownloaderMiddleware,設(shè)置隧道代理服務(wù)器域名、端口號、用戶名、密碼等。

    3? 實驗方案

    3.1? 實驗過程

    本節(jié)說明如何通過Scrapy框架網(wǎng)絡(luò)爬蟲批量抓取微博用戶信息。

    3.1.1? 輸入

    要爬取的微博用戶的ID標(biāo)識號,集中放在一個文本文件“z0420userid.txt”中,其前5行和最后5行內(nèi)容如圖2所示,共有7 754行數(shù)據(jù),按ID標(biāo)識號順序從小到大排列。

    3.1.2? 輸出

    輸出文件“z0421test.txt”前5行和最后5行的截圖如圖3所示,按微博用戶ID標(biāo)識號升序排列,每行的四個數(shù)分別表示該行對應(yīng)的微博用戶的標(biāo)識號ID,已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù),要注意的是用戶粉絲數(shù)中的值有的單位是“個”,而有的單位是“萬”,還有的單位是“億”。

    3.2? 實驗結(jié)果分析

    3.2.1? 輸入與輸出分析

    輸入是7 754行,而輸出是7 639行,輸出比輸入的行數(shù)少了115行。這是由于有些微博用戶在輸出前已經(jīng)被新浪微博網(wǎng)站刪除,從而不存在了;還有些是由于網(wǎng)絡(luò)不穩(wěn)定,導(dǎo)致在規(guī)定的時間內(nèi)沒有下載到相關(guān)的數(shù)據(jù),從而造成缺失。為此,找出缺失的這115行微博用戶的ID標(biāo)識號,把它們重新輸入該網(wǎng)絡(luò)爬蟲,運(yùn)行結(jié)果得到其中107個微博用戶的標(biāo)識號ID、微博數(shù)、關(guān)注數(shù)和粉絲數(shù)信息,仍未下載到數(shù)據(jù)的另外8個微博用戶,經(jīng)人工上網(wǎng)查找,發(fā)現(xiàn)它們已經(jīng)被新浪微博網(wǎng)站刪除,已不存在了。

    3.2.2? 處理時間分析

    下載輸入文件“z0420userid.txt”中的七千多名微博用戶的信息耗時6小時22分鐘,這是在Scrapy框架爬蟲的配置文件即本文2.2.7節(jié)文件settings.py中的參數(shù)DOWNLOAD_DELAY = 6時得到的結(jié)果,該參數(shù)用于人為設(shè)置接連兩次訪問微博網(wǎng)站的時間間隔。如果該參數(shù)值設(shè)置為更小的值比如“3”,則會更快地下載完這七千多名微博用戶的信息,但風(fēng)險是有可能被新浪微博網(wǎng)站識別出是爬蟲在訪問它,從而被拒絕訪問,更嚴(yán)重的后果是被封號,那樣得不償失,反倒要花更多的時間、更慢了。所以這個參數(shù)的值應(yīng)該權(quán)衡利弊慎重選擇。

    4? 結(jié)? 論

    本文用Python語言設(shè)計并實現(xiàn)了一個基于Scrapy框架的網(wǎng)絡(luò)爬蟲,能夠根據(jù)輸入的用戶標(biāo)識號ID從新浪微博網(wǎng)站下載到該用戶目前已發(fā)表的微博數(shù)、關(guān)注數(shù)和粉絲數(shù)等信息。下載七千多微博用戶信息需要6小時22分鐘,影響下載時長的一個重要參數(shù)是接連兩次訪問新浪微博網(wǎng)站的時間間隔,如果該參數(shù)值設(shè)置太小,微博網(wǎng)站會識別出是爬蟲在訪問它,從而會拒絕訪問,甚至封號,確定該間隔值的最佳值是今后要進(jìn)一步研究的問題。

    參考文獻(xiàn):

    [1] 孫握瑜.基于Python的新浪微博爬蟲程序設(shè)計與實現(xiàn) [J].科技資訊,2022,20(12):34-37.

    [2] 史媛.基于Scrapy框架爬取豆瓣圖書的設(shè)計與實現(xiàn) [J].山西電子技術(shù),2022(4):75-77+86.

    [3] 王嘉寶,雒偉群.基于Scrapy框架的電影數(shù)據(jù)爬取和可視化分析 [J].西藏科技,2022(2):64-68.

    [4] 邢婭凱.基于Scrapy框架爬蟲和數(shù)據(jù)挖掘的當(dāng)當(dāng)網(wǎng)頁信息分析 [D].長沙:湘潭大學(xué),2020.

    [5] 孫瑜.基于Scrapy框架的網(wǎng)絡(luò)爬蟲系統(tǒng)的設(shè)計與實現(xiàn) [D].北京:北京交通大學(xué),2019.

    [6] 何波.基于Python的新浪微博中爬蟲程序維護(hù)方法 [J].軟件,2022,43(2):52-54.

    [7] 汪兵.基于Scrapy框架的分布式爬蟲系統(tǒng)設(shè)計與實現(xiàn) [D].合肥:合肥工業(yè)大學(xué),2019.

    [8] 魏海昱,林偉鴻,賀超波.基于Scrapy的食品安全輿情數(shù)據(jù)爬取與分析 [J].現(xiàn)代計算機(jī),2022,28(14):49-54+95.

    [9] 樊宇豪.基于Scrapy的分布式網(wǎng)絡(luò)爬蟲系統(tǒng)設(shè)計與實現(xiàn) [D].成都:電子科技大學(xué),2018.

    [10] 楊君.基于Scrapy技術(shù)的數(shù)據(jù)采集系統(tǒng)的設(shè)計與實現(xiàn) [D].南京:南京郵電大學(xué),2018.

    [11] 董少林,李鐘慎.采用Scrapy分布式爬蟲技術(shù)的微博熱點(diǎn)輿情信息獲取與分析 [J].電腦與信息技術(shù),2020,28(5):23-26.

    [12] 謝鋼.基于Scrapy的信息采集與分析 [J].現(xiàn)代信息科技,2020,4(14):96-98.

    [13] 周毅,李威,何金,等.基于Scrapy框架的分布式網(wǎng)絡(luò)爬蟲系統(tǒng)設(shè)計與實現(xiàn) [J].現(xiàn)代信息科技,2021,5(19):43-46.

    [14] 鄒維,李廷元.基于Scrapy爬蟲框架的領(lǐng)域網(wǎng)站文件爬取 [J].現(xiàn)代信息科技,2020,4(21):6-9.

    [15] 閻澤群.基于網(wǎng)絡(luò)爬蟲技術(shù)的大數(shù)據(jù)采集系統(tǒng)設(shè)計 [J].現(xiàn)代信息科技,2021,5(12):83-86.

    作者簡介:朱燁行(1969—),男,漢族,陜西渭南人,副教授,博士,研究方向:數(shù)據(jù)挖掘;通訊作者:趙寶瑩(1985—),女,漢族,河南洛陽人,講師,碩士,研究方向:教育技術(shù);張明杰(1977—),男,漢族,陜西銅川人,副教授,博士,研究方向:互聯(lián)網(wǎng)輿情分析;魏笑笑(1979—),女,漢族,湖南益陽人,副教授,碩士,研究方向:信息資源管理;衛(wèi)昆(1976—),男,漢族,江蘇昆山人,講師,博士,研究方向:數(shù)據(jù)挖掘。

    收稿日期:2023-04-19

    基金項目:陜西省社會科學(xué)基金項目(2020R048);陜西省科技計劃項目(2021GY-180);陜西省科技廳項目(2021JM-467);陜西省教育廳科研計劃項目(20JZ086)

    猜你喜歡
    網(wǎng)絡(luò)爬蟲微博
    青少年數(shù)字素養(yǎng)的社會與文化內(nèi)涵及其教育啟示
    煉鐵廠鐵量網(wǎng)頁數(shù)據(jù)獲取系統(tǒng)的設(shè)計與實現(xiàn)
    “985工程”高校圖書館閱讀推廣的調(diào)查與分析
    中國市場(2016年38期)2016-11-15 23:47:47
    事實與流言的博弈
    人間(2016年26期)2016-11-03 18:19:04
    基于微博營銷的企業(yè)推廣模式研究
    基于社會網(wǎng)絡(luò)分析的權(quán)威網(wǎng)頁挖掘研究
    主題搜索引擎中網(wǎng)絡(luò)爬蟲的實現(xiàn)研究
    淺析如何應(yīng)對網(wǎng)絡(luò)爬蟲流量
    中國市場(2016年23期)2016-07-05 04:35:08
    網(wǎng)絡(luò)爬蟲針對“反爬”網(wǎng)站的爬取策略研究
    神回復(fù)
    意林(2013年15期)2013-05-14 16:49:23
    国产免费现黄频在线看| 国产伦人伦偷精品视频| 丝袜人妻中文字幕| 亚洲精品国产色婷婷电影| 99久久99久久久精品蜜桃| 在线十欧美十亚洲十日本专区| 午夜视频精品福利| 午夜福利一区二区在线看| 国产免费现黄频在线看| 亚洲人成伊人成综合网2020| 日日摸夜夜添夜夜添小说| 美女国产高潮福利片在线看| 在线观看一区二区三区激情| av有码第一页| 视频区图区小说| 法律面前人人平等表现在哪些方面| 亚洲午夜理论影院| 国产精品影院久久| 国产精品一区二区在线观看99| 国产精品成人在线| 国产精品欧美亚洲77777| 国产成+人综合+亚洲专区| 18禁观看日本| 亚洲第一青青草原| a级毛片在线看网站| 首页视频小说图片口味搜索| 日日夜夜操网爽| 久久国产精品影院| 日韩欧美一区二区三区在线观看 | 操美女的视频在线观看| 亚洲中文日韩欧美视频| 亚洲少妇的诱惑av| 在线天堂中文资源库| 午夜福利在线观看吧| 18禁裸乳无遮挡动漫免费视频| 中文字幕高清在线视频| 精品少妇一区二区三区视频日本电影| 国产精品电影一区二区三区 | 搡老乐熟女国产| 午夜成年电影在线免费观看| 自拍欧美九色日韩亚洲蝌蚪91| x7x7x7水蜜桃| 一进一出抽搐动态| 亚洲人成电影免费在线| 精品一区二区三区四区五区乱码| 久久精品国产99精品国产亚洲性色 | 国产男女内射视频| 99久久综合精品五月天人人| 欧美日韩亚洲国产一区二区在线观看 | 亚洲欧美激情综合另类| 最新美女视频免费是黄的| 欧美日韩国产mv在线观看视频| 欧美激情久久久久久爽电影 | 777米奇影视久久| av一本久久久久| 欧洲精品卡2卡3卡4卡5卡区| netflix在线观看网站| 国产精品99久久99久久久不卡| 精品国产超薄肉色丝袜足j| 自线自在国产av| 国产又爽黄色视频| 精品国产美女av久久久久小说| 在线永久观看黄色视频| 国产精品免费一区二区三区在线 | 国产男女超爽视频在线观看| 天堂中文最新版在线下载| 久久亚洲真实| 国产成人一区二区三区免费视频网站| 精品久久蜜臀av无| 老司机福利观看| 一进一出抽搐动态| 精品人妻1区二区| 国产又色又爽无遮挡免费看| 欧美黑人精品巨大| 少妇被粗大的猛进出69影院| 99国产精品免费福利视频| 99re6热这里在线精品视频| 国产欧美日韩精品亚洲av| 久久久久精品人妻al黑| 国产成人精品在线电影| 成人亚洲精品一区在线观看| 香蕉丝袜av| 成在线人永久免费视频| 精品福利永久在线观看| 亚洲精品国产精品久久久不卡| 国产成人精品在线电影| 丝袜人妻中文字幕| 在线av久久热| 国产99久久九九免费精品| 欧美精品亚洲一区二区| 黄片播放在线免费| xxxhd国产人妻xxx| 丁香六月欧美| 国产乱人伦免费视频| 999久久久精品免费观看国产| 国产无遮挡羞羞视频在线观看| 国产精品亚洲一级av第二区| 国产精品1区2区在线观看. | 中文字幕制服av| 咕卡用的链子| 亚洲专区国产一区二区| 亚洲美女黄片视频| 五月开心婷婷网| 久9热在线精品视频| 欧美久久黑人一区二区| 国产高清视频在线播放一区| 国产精品自产拍在线观看55亚洲 | 国产免费av片在线观看野外av| 交换朋友夫妻互换小说| 久久久久精品国产欧美久久久| 在线观看66精品国产| 国产不卡av网站在线观看| 久久精品91无色码中文字幕| 精品久久久久久久久久免费视频 | 12—13女人毛片做爰片一| 精品人妻熟女毛片av久久网站| 中文字幕人妻熟女乱码| 亚洲专区字幕在线| 国产又色又爽无遮挡免费看| 青草久久国产| 脱女人内裤的视频| 久久久国产欧美日韩av| 亚洲七黄色美女视频| 久久久久国产一级毛片高清牌| 老司机深夜福利视频在线观看| 精品视频人人做人人爽| 91国产中文字幕| 我的亚洲天堂| 婷婷精品国产亚洲av在线 | 9热在线视频观看99| 欧美在线黄色| 超色免费av| 亚洲欧美日韩高清在线视频| www.自偷自拍.com| 狠狠婷婷综合久久久久久88av| 国产成人欧美在线观看 | 在线观看免费日韩欧美大片| 精品高清国产在线一区| 久久亚洲精品不卡| 啪啪无遮挡十八禁网站| xxx96com| 亚洲精品在线观看二区| 老鸭窝网址在线观看| 久久久久精品国产欧美久久久| 久久久精品区二区三区| 国产精品.久久久| 在线av久久热| 一二三四在线观看免费中文在| 99re在线观看精品视频| 国产精华一区二区三区| 成人永久免费在线观看视频| 国产精品香港三级国产av潘金莲| av网站免费在线观看视频| √禁漫天堂资源中文www| 国产亚洲av高清不卡| 精品乱码久久久久久99久播| 美女 人体艺术 gogo| 咕卡用的链子| 国产主播在线观看一区二区| 无人区码免费观看不卡| 757午夜福利合集在线观看| 欧美日韩黄片免| 深夜精品福利| 热99re8久久精品国产| 不卡av一区二区三区| 黄色女人牲交| 日韩有码中文字幕| 中文字幕精品免费在线观看视频| 99热只有精品国产| 国产精品亚洲av一区麻豆| 色老头精品视频在线观看| 1024香蕉在线观看| 久久香蕉激情| 黑人欧美特级aaaaaa片| 免费久久久久久久精品成人欧美视频| 国产一区二区三区综合在线观看| 久久天躁狠狠躁夜夜2o2o| 国产区一区二久久| 午夜免费鲁丝| 高清av免费在线| 欧美大码av| 欧洲精品卡2卡3卡4卡5卡区| 日日夜夜操网爽| 中文字幕高清在线视频| 国产亚洲精品一区二区www | 午夜影院日韩av| 久热这里只有精品99| 久久精品熟女亚洲av麻豆精品| 日本黄色日本黄色录像| 丝袜美腿诱惑在线| 久久久国产成人免费| 两人在一起打扑克的视频| 精品国产乱子伦一区二区三区| 美女国产高潮福利片在线看| av线在线观看网站| 男女床上黄色一级片免费看| 国产成人精品在线电影| 国产极品粉嫩免费观看在线| 一级毛片女人18水好多| 国产视频一区二区在线看| 在线观看免费视频网站a站| 欧美日韩乱码在线| 1024视频免费在线观看| 丝袜人妻中文字幕| 久久久久久久精品吃奶| 国产成人一区二区三区免费视频网站| 50天的宝宝边吃奶边哭怎么回事| 一二三四在线观看免费中文在| 在线观看一区二区三区激情| 啦啦啦 在线观看视频| 黄片大片在线免费观看| 久久久久国产一级毛片高清牌| www日本在线高清视频| 国产成人欧美| 日本一区二区免费在线视频| 亚洲精品久久午夜乱码| 黄色成人免费大全| 亚洲国产毛片av蜜桃av| 天堂动漫精品| 久久国产精品大桥未久av| 成人黄色视频免费在线看| 成人18禁在线播放| 欧美日韩av久久| 亚洲国产欧美日韩在线播放| 日韩欧美一区视频在线观看| 国产精品免费一区二区三区在线 | 亚洲国产欧美一区二区综合| 成人国语在线视频| 真人做人爱边吃奶动态| 成年动漫av网址| av福利片在线| 久久国产精品影院| 精品国产一区二区三区久久久樱花| 高清av免费在线| 亚洲国产精品合色在线| 亚洲av成人一区二区三| 日本黄色日本黄色录像| 国产欧美亚洲国产| 亚洲av欧美aⅴ国产| 免费在线观看亚洲国产| 人妻丰满熟妇av一区二区三区 | 一级毛片高清免费大全| 亚洲成人免费电影在线观看| 两个人免费观看高清视频| 国产成人精品久久二区二区91| 久久精品国产99精品国产亚洲性色 | 女性被躁到高潮视频| 久久久久精品人妻al黑| 黑人猛操日本美女一级片| 老熟女久久久| 久99久视频精品免费| 亚洲色图av天堂| 亚洲精品国产精品久久久不卡| 自拍欧美九色日韩亚洲蝌蚪91| 欧美日韩亚洲高清精品| 国产精品久久久久久人妻精品电影| 窝窝影院91人妻| 日韩精品免费视频一区二区三区| 女人精品久久久久毛片| 国产无遮挡羞羞视频在线观看| 亚洲七黄色美女视频| 国精品久久久久久国模美| 丰满的人妻完整版| 色综合欧美亚洲国产小说| 纯流量卡能插随身wifi吗| 这个男人来自地球电影免费观看| 欧美 亚洲 国产 日韩一| 一二三四社区在线视频社区8| 成人三级做爰电影| 亚洲国产精品sss在线观看 | 熟女少妇亚洲综合色aaa.| 久久久久久久国产电影| 欧美色视频一区免费| 老司机亚洲免费影院| 成年人免费黄色播放视频| 国产激情久久老熟女| av线在线观看网站| 欧美乱妇无乱码| 成年人午夜在线观看视频| 亚洲,欧美精品.| 制服诱惑二区| 亚洲欧美日韩另类电影网站| 亚洲aⅴ乱码一区二区在线播放 | 亚洲成人免费av在线播放| 欧美日韩视频精品一区| 一区二区三区激情视频| 老鸭窝网址在线观看| 精品久久久精品久久久| 90打野战视频偷拍视频| 国精品久久久久久国模美| 日韩欧美一区二区三区在线观看 | 丝袜美足系列| bbb黄色大片| 欧美国产精品一级二级三级| 国产高清国产精品国产三级| 水蜜桃什么品种好| 波多野结衣av一区二区av| 老司机影院毛片| 精品一区二区三区四区五区乱码| 一本综合久久免费| 巨乳人妻的诱惑在线观看| 国产精品久久久久久人妻精品电影| 亚洲情色 制服丝袜| 男人舔女人的私密视频| 国产精品一区二区在线观看99| 久久草成人影院| 亚洲一区二区三区不卡视频| 久久精品亚洲av国产电影网| 国产精品 欧美亚洲| 曰老女人黄片| 精品人妻1区二区| 51午夜福利影视在线观看| 成人三级做爰电影| 精品一区二区三区视频在线观看免费 | 亚洲伊人色综图| 女人久久www免费人成看片| 久久久国产一区二区| 中文亚洲av片在线观看爽 | 国产精品一区二区免费欧美| 亚洲成人免费av在线播放| 亚洲人成77777在线视频| av天堂久久9| 久久狼人影院| 精品久久久久久久毛片微露脸| 欧美激情极品国产一区二区三区| 黄色片一级片一级黄色片| 精品卡一卡二卡四卡免费| 色在线成人网| 又大又爽又粗| 少妇猛男粗大的猛烈进出视频| 亚洲伊人色综图| 天堂中文最新版在线下载| 午夜久久久在线观看| 国产精品98久久久久久宅男小说| 国产欧美日韩一区二区三| 91国产中文字幕| 黑人操中国人逼视频| 国产野战对白在线观看| 操美女的视频在线观看| 国产精品影院久久| 国产麻豆69| 老司机靠b影院| 国产精品偷伦视频观看了| 老司机在亚洲福利影院| 亚洲av日韩在线播放| 一本综合久久免费| 中文字幕人妻丝袜制服| 亚洲自偷自拍图片 自拍| 成在线人永久免费视频| 在线国产一区二区在线| 亚洲av电影在线进入| 窝窝影院91人妻| 亚洲精品美女久久久久99蜜臀| 久久人人爽av亚洲精品天堂| 国产av一区二区精品久久| 精品久久蜜臀av无| 国产精品久久久av美女十八| 亚洲精品乱久久久久久| 国产精品久久久av美女十八| 精品久久蜜臀av无| 成年动漫av网址| 色综合欧美亚洲国产小说| 国产又爽黄色视频| 亚洲一区高清亚洲精品| 久久婷婷成人综合色麻豆| 两个人免费观看高清视频| 老司机福利观看| 国产不卡一卡二| 女人精品久久久久毛片| 精品久久久久久,| 国产区一区二久久| 国产一区有黄有色的免费视频| 亚洲成a人片在线一区二区| 日韩欧美国产一区二区入口| 极品人妻少妇av视频| 天天躁夜夜躁狠狠躁躁| 国产精品秋霞免费鲁丝片| 日韩免费av在线播放| 亚洲一卡2卡3卡4卡5卡精品中文| 老熟妇仑乱视频hdxx| 一级作爱视频免费观看| 91字幕亚洲| 久久香蕉激情| 国产在线一区二区三区精| 久99久视频精品免费| 久久久久久人人人人人| 很黄的视频免费| 国产深夜福利视频在线观看| 久久久精品国产亚洲av高清涩受| 免费看a级黄色片| av片东京热男人的天堂| 午夜福利视频在线观看免费| 欧美日韩亚洲国产一区二区在线观看 | 精品人妻熟女毛片av久久网站| 50天的宝宝边吃奶边哭怎么回事| 日韩三级视频一区二区三区| 男男h啪啪无遮挡| 国产午夜精品久久久久久| 精品少妇久久久久久888优播| 啦啦啦 在线观看视频| 久久青草综合色| 国产一区二区三区综合在线观看| 看黄色毛片网站| 精品久久久久久久毛片微露脸| 亚洲午夜理论影院| 狠狠婷婷综合久久久久久88av| 国产精品乱码一区二三区的特点 | 色94色欧美一区二区| 黄色毛片三级朝国网站| 老司机影院毛片| 亚洲专区字幕在线| 在线看a的网站| 91在线观看av| 精品人妻熟女毛片av久久网站| 黄色丝袜av网址大全| 久久精品国产清高在天天线| 久久久久视频综合| 女人高潮潮喷娇喘18禁视频| 女人被狂操c到高潮| 欧美av亚洲av综合av国产av| 免费久久久久久久精品成人欧美视频| a级片在线免费高清观看视频| 欧美精品av麻豆av| 十八禁网站免费在线| 久久国产亚洲av麻豆专区| 午夜福利免费观看在线| 又黄又粗又硬又大视频| 一级,二级,三级黄色视频| 一级a爱视频在线免费观看| 亚洲精品自拍成人| 国产精品久久久久久精品古装| 国产av又大| 午夜视频精品福利| 首页视频小说图片口味搜索| 搡老岳熟女国产| 国产激情久久老熟女| 欧美激情 高清一区二区三区| 黄片播放在线免费| 国产精品.久久久| 国产成+人综合+亚洲专区| 天堂中文最新版在线下载| 激情在线观看视频在线高清 | а√天堂www在线а√下载 | 一区二区三区精品91| 热99国产精品久久久久久7| 黑丝袜美女国产一区| 久久精品亚洲精品国产色婷小说| 国产精品 国内视频| 在线观看免费视频日本深夜| 久久久国产成人免费| 日韩制服丝袜自拍偷拍| 十分钟在线观看高清视频www| 久久精品熟女亚洲av麻豆精品| 国内久久婷婷六月综合欲色啪| a级片在线免费高清观看视频| 黄色怎么调成土黄色| 国产成人精品在线电影| 欧美人与性动交α欧美软件| 中亚洲国语对白在线视频| 不卡一级毛片| 成年动漫av网址| www.熟女人妻精品国产| 精品人妻熟女毛片av久久网站| 国产成人免费无遮挡视频| 少妇裸体淫交视频免费看高清 | 岛国在线观看网站| 高清毛片免费观看视频网站 | 啦啦啦免费观看视频1| 黑人猛操日本美女一级片| 亚洲男人天堂网一区| 一区二区三区国产精品乱码| 亚洲欧美一区二区三区黑人| 亚洲精品一卡2卡三卡4卡5卡| 中文欧美无线码| 亚洲伊人色综图| 777米奇影视久久| 黄色女人牲交| 91精品国产国语对白视频| 91av网站免费观看| 变态另类成人亚洲欧美熟女 | 国产黄色免费在线视频| 老熟妇仑乱视频hdxx| 亚洲精品乱久久久久久| 亚洲精品一二三| 一级毛片高清免费大全| 交换朋友夫妻互换小说| 每晚都被弄得嗷嗷叫到高潮| 成年女人毛片免费观看观看9 | 色婷婷av一区二区三区视频| 日本欧美视频一区| 我的亚洲天堂| 丝袜美腿诱惑在线| 少妇 在线观看| 国产精品美女特级片免费视频播放器 | 亚洲精品av麻豆狂野| 亚洲性夜色夜夜综合| 欧美不卡视频在线免费观看 | 黄片播放在线免费| 久久国产精品大桥未久av| 午夜激情av网站| tocl精华| 村上凉子中文字幕在线| 伦理电影免费视频| 亚洲中文av在线| 一本综合久久免费| 视频在线观看一区二区三区| 免费在线观看影片大全网站| 777米奇影视久久| 欧美激情 高清一区二区三区| 少妇猛男粗大的猛烈进出视频| 亚洲一码二码三码区别大吗| 亚洲精品在线美女| 免费在线观看亚洲国产| 久热这里只有精品99| 亚洲 欧美一区二区三区| 91av网站免费观看| 麻豆乱淫一区二区| 免费在线观看亚洲国产| 他把我摸到了高潮在线观看| xxx96com| 国产有黄有色有爽视频| 久久久精品区二区三区| 国产区一区二久久| 亚洲av美国av| 亚洲一区二区三区不卡视频| 丝袜人妻中文字幕| 欧美+亚洲+日韩+国产| 午夜成年电影在线免费观看| 国产午夜精品久久久久久| 热99国产精品久久久久久7| 香蕉国产在线看| 婷婷精品国产亚洲av在线 | 亚洲精品美女久久av网站| 国产在视频线精品| 亚洲精品自拍成人| 女人高潮潮喷娇喘18禁视频| 国产人伦9x9x在线观看| 免费高清在线观看日韩| 黑人巨大精品欧美一区二区mp4| 在线观看日韩欧美| av在线播放免费不卡| 黑人欧美特级aaaaaa片| 久久人妻熟女aⅴ| 国产亚洲一区二区精品| 成年女人毛片免费观看观看9 | 老司机午夜福利在线观看视频| 深夜精品福利| 高清欧美精品videossex| a在线观看视频网站| 男女午夜视频在线观看| 国产精品一区二区在线不卡| 亚洲性夜色夜夜综合| 亚洲成人免费电影在线观看| 亚洲成a人片在线一区二区| 亚洲视频免费观看视频| 久久精品国产综合久久久| 久久久久国内视频| 国产男靠女视频免费网站| 久久热在线av| 中文字幕另类日韩欧美亚洲嫩草| 变态另类成人亚洲欧美熟女 | 一级作爱视频免费观看| 亚洲国产看品久久| 一级毛片女人18水好多| 满18在线观看网站| 亚洲 国产 在线| svipshipincom国产片| 国产免费现黄频在线看| 变态另类成人亚洲欧美熟女 | 后天国语完整版免费观看| 在线观看一区二区三区激情| 窝窝影院91人妻| 精品福利永久在线观看| 乱人伦中国视频| 中文字幕最新亚洲高清| 国产精品av久久久久免费| 动漫黄色视频在线观看| 老司机午夜福利在线观看视频| 亚洲精品美女久久久久99蜜臀| 岛国在线观看网站| 欧美日韩福利视频一区二区| 一区福利在线观看| 亚洲欧美一区二区三区久久| 嫁个100分男人电影在线观看| 国产成人系列免费观看| 50天的宝宝边吃奶边哭怎么回事| 满18在线观看网站| av线在线观看网站| 久久影院123| 午夜亚洲福利在线播放| 日韩免费av在线播放| svipshipincom国产片| 丝袜美腿诱惑在线| 妹子高潮喷水视频| 国产成人一区二区三区免费视频网站| 精品亚洲成国产av| 国产精品久久电影中文字幕 | 国产高清激情床上av| cao死你这个sao货| 亚洲国产精品合色在线| 国产成人精品久久二区二区91| 水蜜桃什么品种好| 欧美亚洲 丝袜 人妻 在线| 超碰97精品在线观看| 99香蕉大伊视频| 亚洲精品在线观看二区| 国产熟女午夜一区二区三区| 嫩草影视91久久| 99香蕉大伊视频| 久久久国产欧美日韩av| 国产激情久久老熟女| 在线免费观看的www视频| 国产精品欧美亚洲77777| 免费在线观看完整版高清| 亚洲欧洲精品一区二区精品久久久|