bl双性强迫侵犯h_国产在线观看人成激情视频_蜜芽188_被诱拐的少孩全彩啪啪漫画

使用python寫爬蟲程序的方法-創新互聯

創新互聯www.cdcxhl.cn八線動態BGP香港云服務器提供商,新人活動買多久送多久,劃算不套路!

創新互聯科技有限公司專業互聯網基礎服務商,為您提供成都服務器托管高防服務器租用,成都IDC機房托管,成都主機托管等互聯網服務。

這篇文章將為大家詳細講解有關使用python寫爬蟲程序的方法,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

python編寫爬蟲的整體思路簡單清晰,下面來說一下具體的步驟:

先來看代碼,在解釋,一個簡單的網絡爬蟲示例

import requests
from bs4 import BeautifulSoup

#58同城的二手市場主頁面
start_url = 'http://bj.58.com/sale.shtml'
url_host = 'http://bj.58.com'
#定義一個爬蟲函數來獲取二手市場頁面中的全部大類頁面的連接
def get_channel_urls(url):
    #使用Requests庫來進行一次請求
    web_data = requests.get(url)
    #使用BeautifulSoup對獲取到的頁面進行解析
    soup = BeautifulSoup(web_data.text, 'lxml')
    #根據頁面內的定位信息獲取到全部大類所對應的連接
    urls = soup.select('ul.ym-submnu > li > b > a')
    #作這兩行處理是因為有的標簽有鏈接,但是卻是空內容
    for link in urls:
        if link.text.isspace():
            continue
        else:
            page_url = url_host + link.get('href')
            print(page_url)

整體思路流程

通過URL獲取說要爬取的頁面的響應信息(Requests庫的使用)

通過python中的解析庫來對response進行結構化解析(BeautifulSoup庫的使用)

通過對解析庫的使用和對所需要的信息的定位從response中獲取需要的數據(selecter和xpath的使用)

將數據組織成一定的格式進行保存(MongoDB的使用)

通過對數據庫中的數據進行篩選和組織,進行數據可視化的初步展示(HighCharts庫的使用)

簡單代碼演示

 準備工作

下載并安裝所需要的python庫,包括:

requests庫:用于向指定url發起請求

BeautifulSoup庫:用于解析返回的網頁信息

lxml庫:用于解析網頁返回結果

pymongo庫:用于實現python對MongoDB的操作

 對所需要的網頁進行請求并解析返回的數據

對于想要做一個簡單的爬蟲而言,這一步其實很簡單,主要是通過requests庫來進行請求,然后對返回的數據進行一個解析,解析之后通過對于元素的定位和選擇來獲取所需要的數據元素,進而獲取到數據的一個過程。(更多學習內容,請點擊python學習網

以上就是一個簡單的網頁爬蟲的制作過程,我們可以通過定義不同的爬蟲來實現爬取不同頁面的信息,并通過程序的控制來實現一個自動化爬蟲。

關于使用python寫爬蟲程序的方法就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

分享標題:使用python寫爬蟲程序的方法-創新互聯
網頁鏈接:http://vcdvsql.cn/article2/ggoic.html

成都網站建設公司_創新互聯,為您提供網站收錄服務器托管網站導航網站維護響應式網站電子商務

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

成都做網站