bl双性强迫侵犯h_国产在线观看人成激情视频_蜜芽188_被诱拐的少孩全彩啪啪漫画

爬蟲時IP總是被封該怎么辦

這篇文章將為大家詳細講解有關爬蟲時IP總是被封該怎么辦,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。

站在用戶的角度思考問題,與客戶深入溝通,找到乳山網站設計與乳山網站推廣的解決方案,憑借多年的經驗,讓設計與互聯網技術結合,創造個性化、用戶體驗好的作品,建站類型包括:成都網站設計、網站建設、企業官網、英文網站、手機端網站、網站推廣、主機域名、雅安服務器托管、企業郵箱。業務覆蓋乳山地區。

在我抓取網站遇到瓶頸,想劍走偏鋒去解決時,常常會先去看下該網站的 robots.txt 文件,有時會給你打開另一扇抓取之門。

寫爬蟲有很多苦惱的事情,比如:

1.訪問頻次太高被限制;

2.如何大量發現該網站的 URL;

3.如何抓取一個網站新產生的 URL,等等;

這些問題都困擾著爬蟲選手,如果有大量離散 IP 和賬號,這些都不是問題,但是絕大部分公司都不具備這個條件的。

我們在工作中寫的爬蟲大多是一次性和臨時性的任務,需要你快速完成工作就好,當遇到上面情況,試著看下 robots.txt 文件。

舉個栗子:

老板給你布置一個任務,把豆瓣每天新產生的影評,書評,小組帖子,同城帖子,個人日志抓取下來。

初想一下,這任務得有多大,豆瓣有 1.6 億注冊用戶,光是抓取個人日志這一項任務,每個人的主頁你至少每天要訪問一次。

這每天就得訪問 1.6 億次,小組/同城帖子等那些還沒算在內。

設計一個常規爬蟲,靠著那幾十個 IP 是完不成任務的。

初窺robots.txt

當老板給你了上面的任務,靠著你這一兩桿槍,你怎么完成,別給老板講技術,他不懂,他只想要結果。

我們來看下豆瓣的 robots.txt。

爬蟲時IP總是被封該怎么辦

看圖片上面紅框處,是兩個 sitemap 文件

打開 sitemap_updated_index 文件看一下:

爬蟲時IP總是被封該怎么辦

里面是一個個壓縮文件,文件里面是豆瓣頭一天新產生的影評,書評,帖子等等,感興趣的可以去打開壓縮文件看一下。

也就是說每天你只需要訪問這個 robots.txt 里的 sitemap 文件就可以知道有哪些新產生的 URL。

不用去遍歷豆瓣網站上那幾億個鏈接,極大節約了你的抓取時間和爬蟲設計復雜度,也降低了豆瓣網站的帶寬消耗,這是雙贏啊,哈哈。

上面通過 robots.txt 的 sitemap 文件找到了抓取一個網站新產生 URL 的偏方。沿著該思路也能解決發現網站大量 URL 的問題。

再舉個栗子:

老板又給你一個任務,老板說上次抓豆瓣你說要大量 IP 才能搞定抓豆瓣每天新產生的帖子,這次給你 1000 個 IP  把天眼查上的幾千萬家企業工商信息抓取下來。

看著這么多 IP 你正留著口水,但是分析網站后發現這類網站的抓取入口很少(抓取入口是指頻道頁,聚合了很多鏈接的那種頁面)。

很容易就把儲備的 URL 抓完了,干看著這么多 IP 工作不飽滿。

如果一次性能找到這個網站幾萬乃至幾十萬個 URL 放進待抓隊列里,就可以讓這么多 IP 工作飽滿起來,不會偷懶了。

我們來看他的robots.txt文件:

爬蟲時IP總是被封該怎么辦

爬蟲時IP總是被封該怎么辦

打開紅框處的 sitemap,里面有 3 萬個公司的 URL,上圖是 1 月 3 號生成的,那個URL 是根據年月日生成的,你把 URL 改成 1 月 2  號,又能看到 2 號的sitemap里的幾萬個公司 URL,這樣就能發現十幾萬個種子 URL 供你抓取了。

PS:上面的 sitemap 其實也能解決抓取天眼查最近更新的,新產生 URL 的問題。

小小的一個取巧,既降低了爬蟲設計的復雜度,又降低了對方的帶寬消耗。

關于爬蟲時IP總是被封該怎么辦就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

網站欄目:爬蟲時IP總是被封該怎么辦
當前URL:http://vcdvsql.cn/article40/pcooeo.html

成都網站建設公司_創新互聯,為您提供用戶體驗外貿網站建設、網站設計公司、品牌網站建設、服務器托管、品牌網站設計

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

成都網站建設