個人一直對網絡爬蟲感興趣,最近使用python的flask框架開發了一個小型網站(有待改進)以及最近在學習深度學習的開源框架caffe,caffe提供了python接口。藉此機會學習了一下python以及利用python開發爬蟲。希望後面能夠利用自己寫的爬蟲,爬取一些數據集用於caffe訓練。
代碼如下:
__author__ = 'JWL'
# -*- coding:utf-8 -*-
import urllib
import urllib2
import re
import thread
import time
#嗅事百科爬蟲類
class BK:
#初始化方法,定義一些變量
def __init__(self):
self.pageIndex = 1
self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
#初始化headers
self.headers = {'User-Agent' : self.user_agent}
#存放段子的變量,每一個元素是每一頁的段子們
self.stories = []
#存放程序是否繼續運行的變量
self.enable = False
#傳入某一頁的索引獲得頁面代碼
def getPage(self,pageIndex):
try:
url = 'http://www.qiushibaike.com/hot/page/' + str(pageIndex)
#構建請求的request
request = urllib2.Request(url,headers = self.headers)
#利用urlopen獲取頁面代碼
response = urllib2.urlopen(request)
#將頁面轉化爲UTF-8編碼
pageCode = response.read().decode('utf-8')
return pageCode
except urllib2.URLError, e:
if hasattr(e,"reason"):
print u"連接糗事百科失敗,錯誤原因",e.reason
return None
def getPageItems(self,pageIndex):
pageCode = self.getPage(pageIndex)
if not pageCode:
print "頁面加載失敗...."
return None
pattern = re.compile('<div class="author clearfix">.*?href.*?<img src.*?title=.*?<h2>(.*?)</h2>.*?<div class="content">(.*?)</div>.*?<i class="number">(.*?)</i>',re.S)
items = re.findall(pattern,pageCode)
#用來存儲每頁的段子們
pageStories = []
#遍歷正則表達式匹配的信息
for item in items:
replaceBR = re.compile('<br/>')
text = re.sub(replaceBR,"\n",item[1])
pageStories.append([item[0].strip(),text.strip(),item[2].strip()])
return pageStories
#加載並提取頁面的內容,加入到列表中
def loadPage(self):
#如果當前未看的頁面少於2頁,則加載新一頁
if self.enable == True:
if len(self.stories) < 2:
#獲取新一頁
pageStories = self.getPageItems(self.pageIndex)
#將該頁的段子存入到全局的list中
if pageStories:
self.stories.append(pageStories)
#獲取完之後頁面索引加一,表示下次讀取下一頁
self.pageIndex += 1
#調用該方法,每次敲回車打印輸出一個段子
def getOneStory(self,pageStories,page):
#遍歷一頁的段子
for story in pageStories:
#等待用戶輸入
input = raw_input()
#每當輸入回車一次,判斷一下是否要加載新頁面
self.loadPage()
#如果輸入Q則程序結束
if input == "Q":
self.enable = False
return
print u"第%d頁\t發佈人:%s\t發佈內容:%s\t贊:%s" %(page,story[0],story[1],story[2])
#開始方法
def start(self):
print u"正在讀取糗事百科,按回車查看新段子,Q退出"
#使變量爲True,程序可以正常運行
self.enable = True
#先加載一頁內容
self.loadPage()
#局部變量,控制當前讀到了第幾頁
nowPage = 0
while self.enable:
if len(self.stories)>0:
pageStories = self.stories[0]
#當前讀到的頁數加一
nowPage += 1
#將全局list中第一個元素刪除
del self.stories[0]
self.getOneStory(pageStories,nowPage)
spider = BK()
spider.start()
github地址:https://github.com/jingwanli6666/qiushibaike_spider