bl双性强迫侵犯h_国产在线观看人成激情视频_蜜芽188_被诱拐的少孩全彩啪啪漫画

怎么用scrapy框架構建python爬蟲

這篇文章主要介紹了怎么用scrapy框架構建python爬蟲,具有一定借鑒價值,需要的朋友可以參考下。希望大家閱讀完這篇文章后大有收獲。下面讓小編帶著大家一起了解一下。

在海拉爾等地區,都構建了全面的區域性戰略布局,加強發展的系統性、市場前瞻性、產品創新能力,以專注、極致的服務理念,為客戶提供做網站、成都網站建設 網站設計制作按需網站建設,公司網站建設,企業網站建設,高端網站設計,成都營銷網站建設,外貿網站制作,海拉爾網站建設費用合理。

制作爬蟲,總體來說分為兩步:先爬再取。

也就是說,首先你要獲取整個網頁的所有內容,然后再取出其中對你有用的部分。

要建立一個Spider,你必須用scrapy.spider.BaseSpider創建一個子類,并確定三個強制的屬性:

  • name:爬蟲的識別名稱,必須是唯一的,在不同的爬蟲中你必須定義不同的名字。

  • start_urls:爬取的URL列表。爬蟲從這里開始抓取數據,所以,第一次下載的數據將會從這些urls開始。其他子URL將會從這些起始URL中繼承性生成。

  • parse():解析的方法,調用的時候傳入從每一個URL傳回的Response對象作為唯一參數,負責解析并匹配抓取的數據(解析為item),跟蹤更多的URL。

創建douban_spider.py文件,保存在douban\spiders目錄下。并導入我們需用的模塊

怎么用scrapy框架構建python爬蟲 

編寫主要模塊:

怎么用scrapy框架構建python爬蟲 

然后運行一下,

怎么用scrapy框架構建python爬蟲 

會看到有403錯誤,是因為我們爬取的時候沒加頭部導致的:

怎么用scrapy框架構建python爬蟲 

我們來偽裝一下,在settings.py里加上USER_AGENT:

USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/536.5 
(KHTML, like Gecko) Chrome/19.0.1084.54 Safari/536.5'

再次運行,即可看到正確結果。

感謝你能夠認真閱讀完這篇文章,希望小編分享怎么用scrapy框架構建python爬蟲內容對大家有幫助,同時也希望大家多多支持創新互聯,關注創新互聯行業資訊頻道,遇到問題就找創新互聯,詳細的解決方法等著你來學習!

網頁名稱:怎么用scrapy框架構建python爬蟲
網站地址:http://vcdvsql.cn/article46/jhijeg.html

成都網站建設公司_創新互聯,為您提供網站排名動態網站電子商務商城網站標簽優化定制開發

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

微信小程序開發