陳超
網(wǎng)絡(luò)爬蟲(Web Spider)又稱網(wǎng)絡(luò)蜘蛛、網(wǎng)絡(luò)機(jī)器人,是一段用來自動(dòng)化采集網(wǎng)站數(shù)據(jù)的程序。如果把互聯(lián)網(wǎng)比喻成一個(gè)蜘蛛網(wǎng),那么Spider就是在網(wǎng)上爬來爬去的蜘蛛。Python適用于網(wǎng)站、桌面應(yīng)用開發(fā),自動(dòng)化腳本,復(fù)雜計(jì)算系統(tǒng),科學(xué)計(jì)算,生命支持管理系統(tǒng),物聯(lián)網(wǎng),游戲,機(jī)器人,自然語言處理等很多方面。本文簡(jiǎn)要介紹對(duì)于定向信息采集所需了解基本知識(shí)和相關(guān)技術(shù),以及python中與此相關(guān)的庫,同時(shí)提供對(duì)與數(shù)據(jù)抓取有關(guān)庫的封裝實(shí)現(xiàn)。
一、應(yīng)用場(chǎng)景
爬蟲技術(shù)在科學(xué)研究、Web安全、產(chǎn)品研發(fā)、輿情監(jiān)控等領(lǐng)域可以做很多事情。如:在數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、圖像處理等科學(xué)研究領(lǐng)域,如果沒有數(shù)據(jù),則可以通過爬蟲從網(wǎng)上抓取;在Web安全方面,使用爬蟲可以對(duì)網(wǎng)站是否存在某一漏洞進(jìn)行批量驗(yàn)證、利用;在產(chǎn)品研發(fā)方面,可以采集各個(gè)商城物品價(jià)格,為用戶提供市場(chǎng)最低價(jià);在輿情監(jiān)控方面,可以抓取、分析微博的數(shù)據(jù),從而識(shí)別出某用戶是否為水軍。
二、運(yùn)行流程
對(duì)于定向信息的爬取,爬蟲主要包括數(shù)據(jù)抓取、數(shù)據(jù)解析、數(shù)據(jù)入庫等操作流程。其中:(1)數(shù)據(jù)抓?。喊l(fā)送構(gòu)造的HTTP請(qǐng)求,獲得包含所需數(shù)據(jù)的HTTP響應(yīng);
(2)數(shù)據(jù)解析:對(duì)HTTP響應(yīng)的原始數(shù)據(jù)進(jìn)行分析、清洗以提取出需要的數(shù)據(jù);
(3)數(shù)據(jù)入庫:將數(shù)據(jù)進(jìn)一步保存到數(shù)據(jù)庫(或文本文件),構(gòu)建知識(shí)庫。
三、相關(guān)技術(shù)
爬蟲的相關(guān)技術(shù)包括:
(1)數(shù)據(jù)抓取:了解HTTP請(qǐng)求和響應(yīng)中各字段的含義;了解相關(guān)的網(wǎng)絡(luò)分析工具,主要用于分析網(wǎng)絡(luò)流量,如:burpsuit等。一般情況,使用瀏覽器的開發(fā)者模式即可;
(2)數(shù)據(jù)解析:了解HTML結(jié)構(gòu)、JSON和XML數(shù)據(jù)格式,CSS選擇器、Xpath路徑表達(dá)式、正則表達(dá)式等,目的是從響應(yīng)中提取出所需的數(shù)據(jù);
(3)數(shù)據(jù)入庫:MySQL,SQLite、Redis等數(shù)據(jù)庫,便于數(shù)據(jù)的存儲(chǔ);
以上是學(xué)習(xí)爬蟲的基本要求,在實(shí)際的應(yīng)用中,也應(yīng)考慮如何使用多線程提高效率、如何做任務(wù)調(diào)度、如何應(yīng)對(duì)反爬蟲,如何實(shí)現(xiàn)分布式爬蟲等等。
四、python相關(guān)庫
在爬蟲實(shí)現(xiàn)上,除了scrapy框架之外,python有許多與此相關(guān)的庫可供使用。其中,在數(shù)據(jù)抓取方面包括:urllib2(urllib3)、requests、mechanize、selenium、splinter;在數(shù)據(jù)解析方包括:lxml、beautifulsoup4、re、pyquery。
對(duì)于數(shù)據(jù)抓取,涉及的過程主要是模擬瀏覽器向服務(wù)器發(fā)送構(gòu)造好的http請(qǐng)求,常見類型有:get/post。其中,urllib2(urllib3)、requests、mechanize用來獲取URL對(duì)應(yīng)的原始響應(yīng)內(nèi)容;而selenium、splinter通過加載瀏覽器驅(qū)動(dòng),獲取瀏覽器渲染之后的響應(yīng)內(nèi)容,模擬程度更高。
具體選擇哪種類庫,應(yīng)根據(jù)實(shí)際需求決定,如考慮效率、對(duì)方的反爬蟲手段等。通常,能使用urllib2(urllib3)、requests、mechanize等解決的盡量不用selenium、splinter,因?yàn)楹笳咭蛐枰虞d瀏覽器而導(dǎo)致效率較低。
對(duì)于數(shù)據(jù)解析,主要是從響應(yīng)頁面里提取所需的數(shù)據(jù),常用方法有:xpath路徑表達(dá)式、CSS選擇器、正則表達(dá)式等。其中,xpath路徑表達(dá)式、CSS選擇器主要用于提取結(jié)構(gòu)化的數(shù)據(jù),而正則表達(dá)式主要用于提取非結(jié)構(gòu)化的數(shù)據(jù)。相應(yīng)的庫有l(wèi)xml、beautifulsoup4、re、pyquery。
五、反爬蟲
1. 基本的反爬蟲手段,主要是檢測(cè)請(qǐng)求頭中的字段,比如:User-Agent、referer等。針對(duì)這種情況,只要在請(qǐng)求中帶上對(duì)應(yīng)的字段即可。所構(gòu)造http請(qǐng)求的各個(gè)字段最好跟在瀏覽器中發(fā)送的完全一樣,但也不是必須。
2. 基于用戶行為的反爬蟲手段,主要是在后臺(tái)對(duì)訪問的IP(或User-Agent)進(jìn)行統(tǒng)計(jì),當(dāng)超過某一設(shè)定的閾值,給予封鎖。針對(duì)這種情況,可通過使用代理服務(wù)器解決,每隔幾次請(qǐng)求,切換一下所用代理的IP地址(或通過使用User-Agent列表解決,每次從列表里隨機(jī)選擇一個(gè)使用)。這樣的反爬蟲方法可能會(huì)誤傷用戶。
3. 希望抓取的數(shù)據(jù)是如果通過ajax請(qǐng)求得到的,假如通過網(wǎng)絡(luò)分析能夠找到該ajax請(qǐng)求,也能分析出請(qǐng)求所需的具體參數(shù),則直接模擬相應(yīng)的http請(qǐng)求,即可從響應(yīng)中得到對(duì)應(yīng)的數(shù)據(jù)。這種情況,跟普通的請(qǐng)求沒有什么區(qū)別。
4. 基于JavaScript的反爬蟲手段,主要是在響應(yīng)數(shù)據(jù)頁面之前,先返回一段帶有JavaScript代碼的頁面,用于驗(yàn)證訪問者有無JavaScript的執(zhí)行環(huán)境,以確定使用的是不是瀏覽器。
六、結(jié)論
網(wǎng)絡(luò)爬蟲不僅能夠?yàn)樗阉饕娌杉W(wǎng)絡(luò)信息,而且還可以作為定向信息采集器,定向采集某些網(wǎng)站下的特定信息。而隨著近幾年來的發(fā)展,python的受歡迎度也越來越高,而它的運(yùn)用的領(lǐng)域也是越來越多,比如人工智能和大數(shù)據(jù)等領(lǐng)域,python都是在其中扮演者重要的角色。
[1] 《Python程序設(shè)計(jì)與算法基礎(chǔ)教程》. 江紅,余青松 主編. 清華大學(xué)出版社. 2018
[2] 《Python成型設(shè)計(jì)案例教程——從入門到機(jī)器學(xué)習(xí)》. 張思民 編著. 清華大學(xué)出版社. 2018
[3] 基于Python的網(wǎng)絡(luò)爬蟲技術(shù)[J]. 錢程,陽小蘭.黑龍江科技信息. 2016,36:273