源碼網址: http://download.csdn.NET/detail/hanchaobiao/9860671
目前成都創新互聯已為成百上千的企業提供了網站建設、域名、網絡空間、網站托管、企業網站設計、杭州網站維護等服務,公司將堅持客戶導向、應用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協力一起成長,共同發展。
一段自動抓取互聯網信息的程序,可以從一個URL出發,訪問它所關聯的URL,提取我們所需要的數據。也就是說爬蟲是自動訪問互聯網并提取數據的程序。
入口:http://baike.baidu.com/item/Python
分析URL格式:防止訪問無用路徑 http://baike.baidu.com/item/{標題}
數據:抓取百度百科相關Python詞條網頁的標題和簡介
通過審查元素得標題元素為 :class="lemmaWgt-lemmaTitle-title"
簡介元素為:class="lemma-summary"
頁面編碼:UTF-8
作為定向爬蟲網站要根據爬蟲的內容升級而升級如運行出錯可能為百度百科升級,此時則需要重新分析目標
代碼集注釋:
[python] view plain copy
#創建類
from imooc.baike_spider import url_manager,html_downloader,html_output,html_parser
class spiderMain:
#構造函數 初始化
def __init__(self):
#實例化需引用的對象
self.urls = url_manager.UrlManager()
self.downloader = html_downloader.HtmlDownLoader()
self.output = html_output.HtmlOutPut()
self.parser = html_parser.HtmlParser()
def craw(self,root_url):
#添加一個到url中
self.urls.add_new_url(root_url)
count = 1
while self.urls.has_new_url():
try:
new_url = self.urls.get_new_url()
print('craw %d : %s' %(count,new_url))
#下載
html_context = self.downloader.downloade(new_url)
new_urls,new_data = self.parser.parse(new_url,html_context)
print(new_urls)
self.urls.add_new_urls(new_urls)
self.output.collect_data(new_data)
#爬一千個界面
if(count==1000):
break
count+=1
except:
print("craw faile")
self.output.output_html()
#創建main方法
if __name__ == "__main__":
root_url = "http://baike.baidu.com/item/Python"
obj_spider = spiderMain()
obj_spider.craw(root_url)
[python] view plain copy
class UrlManager:
'url管理類'
#構造函數初始化set集合
def __init__(self):
self.new_urls = set() #待爬取的url
self.old_urls = set() #已爬取的url
#向管理器中添加一個新的url
def add_new_url(self,root_url):
if(root_url is None):
return
if(root_url not in self.new_urls and root_url not in self.old_urls):
#既不在待爬取的url也不在已爬取的url中,是一個全新的url,因此將其添加到new_urls
self.new_urls.add(root_url)
# 向管理器中添加批量新的url
def add_new_urls(self,urls):
if(urls is None or len(urls) == 0):
return
for url in urls:
self.add_new_url(url) #調用add_new_url()
#判斷是否有新的待爬取的url
def has_new_url(self):
return len(self.new_urls) != 0
#獲取一個待爬取的url
def get_new_url(self):
new_url = self.new_urls.pop()
self.old_urls.add(new_url)
return new_url
[python] view plain copy <span >from urllib import request from urllib.parse import quote import string class HtmlDownLoader: '下載頁面內容' def downloade(self,new_url): if(new_url is None): return None #解決請求路徑中含義中文或特殊字符 url_ = quote(new_url, safe=string.printable); response = request.urlopen(url_) if(response.getcode()!=200): return None #請求失敗 html = response.read() return html.decode("utf8")</span>
[python] view plain copy
from bs4 import BeautifulSoup
import re
from urllib import parse
class HtmlParser:
#page_url 基本url 需拼接部分
def _get_new_urls(self,page_url,soup):
new_urls = set()
#匹配 /item/%E8%87%AA%E7%94%B1%E8%BD%AF%E4%BB%B6
links = soup.find_all('a',href=re.compile(r'/item/\w+'))
for link in links:
new_url = link["href"]
#例如page_url=http://baike.baidu.com/item/Python new_url=/item/史記·2016?fr=navbar
#則使用parse.urljoin(page_url,new_url)后 new_full_url = http://baike.baidu.com/item/史記·2016?fr=navbar
new_full_url = parse.urljoin(page_url,new_url)
new_urls.add(new_full_url)
return new_urls
def _get_new_data(self,page_url,soup):
#<dd class="lemmaWgt-lemmaTitle-title"> <h2>Python</h2>
red_data = {}
red_data['url'] = page_url
title_node = soup.find('dd',class_="lemmaWgt-lemmaTitle-title").find('h2') #獲取標題內容
red_data['title'] = title_node.get_text()
#<div class="lemma-summary" label-module="lemmaSummary">
summary_node = soup.find('div',class_="lemma-summary")
red_data['summary'] = summary_node.get_text()
return red_data
#new_url路徑 html_context界面內容
def parse(self,page_url, html_context):
if(page_url is None or html_context is None):
return
#python3缺省的編碼是unicode, 再在from_encoding設置為utf8, 會被忽視掉,去掉【from_encoding = "utf-8"】這一個好了
soup = BeautifulSoup(html_context, "html.parser")
new_urls = self._get_new_urls(page_url, soup)
new_data = self._get_new_data(page_url, soup)
return new_urls,new_data
[python] view plain copy
class HtmlOutPut:
def __init__(self):
self.datas = [] #存放搜集的數據
def collect_data(self,new_data):
if(new_data is None):
return
self.datas.append(new_data)
def output_html(self):
fout = open('output.html','w',encoding='utf8') #寫入文件 防止中文亂碼
fout.write('<html>\n')
fout.write('<body>\n')
fout.write('<table>\n')
for data in self.datas:
fout.write('<tr>\n')
fout.write('<td>%s</td>\n'%data['url'])
fout.write('<td>%s</td>\n'%data['title'])
fout.write('<td>%s</td>\n'%data['summary'])
fout.write('</tr>\n')
fout.write('</table>\n')
fout.write('</body>\n')
fout.write('</html>\n')
fout.close()
視頻網站:http://www.imooc.com/learn/563
源碼網址:http://download.csdn.Net/detail/hanchaobiao/9860671
分享題目:Python開發簡單爬蟲
當前URL:http://vcdvsql.cn/article14/gjooge.html
成都網站建設公司_創新互聯,為您提供網站制作、搜索引擎優化、網站導航、服務器托管、品牌網站制作、用戶體驗
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯