python爬蟲學習 2.2 (使用正則表達式得爬蟲得簡單案例)

python爬蟲學習 2.2 (使用正則表達式得爬蟲得簡單案例)

以下學習案例所爬網站已經停用,最後加上自己學習時所寫案例

案例:使用正則表達式的爬蟲

現在擁有了正則表達式這把神兵利器,我們就可以進行對爬取到的全部網頁源代碼進行篩選了。

下面我們一起嘗試一下爬取內涵段子網站: http://www.neihan8.com/article/list_5_1.html

打開之後,不難看到裏面一個一個灰常有內涵的段子,當你進行翻頁的時候,注意url地址的變化:

  • 第一頁url: http: //www.neihan8.com/article/list_5_1 .html

  • 第二頁url: http: //www.neihan8.com/article/list_5_2 .html

  • 第三頁url: http: //www.neihan8.com/article/list_5_3 .html

  • 第四頁url: http: //www.neihan8.com/article/list_5_4 .html

這樣我們的url規律找到了,要想爬取所有的段子,只需要修改一個參數即可。 下面我們就開始一步一步將所有的段子爬取下來吧。

第一步:獲取數據

1. 按照我們之前的用法,我們需要寫一個加載頁面的方法。

這裏我們統一定義一個類,將url請求作爲一個成員方法處理。

我們創建一個文件,叫duanzi_spider.py

然後定義一個Spider類,並且添加一個加載頁面的成員方法

class Duanzi_spider():
    def __init__(self):
        self.url = "http://www.neihan8.com/article/list_5_%s.html"
        self.headers = {
            "User_Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleW\
            ebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36",
            "Accept-Encoding":None,
            "Accept-Language": "zh-CN,zh;q=0.8"

        }

    def load_page(self,url):
            '''可以複用的頁面請求方法
            '''
            response = requests.get(url,timeout=10,headers=self.headers)
            if response.status_code==200:
                    print(response.request.headers)
                    return response.content.decode("gbk")
            else:
                    raise ValueError("status_code is:",response.status_code)

程序正常執行的話,我們會在屏幕上打印了內涵段子第一頁的全部html代碼。 但是我們發現,html中的中文部分顯示的可能是亂碼 。
注意 :對於每個網站對中文的編碼各自不同,所以html.decode(‘gbk’)的寫法並不是通用寫法,根據網站的編碼而異

第二步:篩選數據

接下來我們已經得到了整個頁面的數據。 但是,很多內容我們並不關心,所以下一步我們需要進行篩選。 如何篩選,就用到了上一節講述的正則表達式。

首先
import re
然後, 在我們得到的response中進行篩選匹配。

我們需要一個匹配規則:

我們可以打開內涵段子的網頁,鼠標點擊右鍵 " 查看源代碼 " 你會發現每條段子的內容大致如下

<a href="/article/44959.html"><b>回家奔喪</b></a></h4>
                                                                <div class="f18 mb20">
                                                                                  一老太太跋山涉水來到部隊,看望她的孫子,<br />
  警衛問:“她找誰?”老太說:“找xx,”警衛打完電話說:<br />
  “xx三天前說她他奶奶過世,回家奔喪去了,奔喪去了,去了。。”

                                                                </div>
def get_content(self,html):
        '''  根據網頁內容,同時匹配標題和段子內容
        '''
        pattern = re.compile(r'<a\shref="/article/\d+\.html">(.*?)</a>.*?<div\sclass="f18 mb20">(.*?)</div>', re.S)
        t = pattern.findall(html)
        result = []
        for i in t:
            temp = []
            for j in i:
                    j = re.sub(r"[<b>|</b>|<br />|<br>|<p>|</p>|\\u3000|\\r\\n|\s]","",j)
                    j = j.replace("&ldqo;",'"').replace("&helli;","...").replace("&dqo;",'"').strip()
                    # j = re.sub(r"[&ldqo;|&dqo;]","\"",j)?
                    # j = re.sub(r"…","...",j)
                    temp.append(j)
                print(temp)
            result.append(temp)
    return result

這裏需要注意一個是re.S是正則表達式中匹配的一個參數。

如果 沒有re.S 則是 只匹配一行 有沒有符合規則的字符串,如果沒有則下一行重新匹配。

如果 加上re.S 則是將 所有的字符串 將一個整體進行匹配,findall 將所有匹配到的結果封裝到一個list中。

ok程序寫到這,我們再一次執行一下。
Power@PowerMac ~$ python duanzi_spider.py

我們第一頁的全部段子,不包含其他信息全部的打印了出來。

  • 你會發現段子中有很多

    ,

    很是不舒服,實際上這個是html的一種段落的標籤。
  • 在瀏覽器上看不出來,但是如果按照文本打印會有

    出現,那麼我們只需要把我們不希望的內容去掉即可了。

  • 我們可以如下簡單修改一下 get_content().

j = re.sub(r"[<b>|</b>|<br />|<br>|<p>|</p>|\\u3000|\\r\\n|\s]","",j)
j = j.replace("&ldqo;",'"').replace("&helli;","...").replace("&dqo;",'"').strip()

第三步:保存數據

  • 我們可以將所有的段子存放在文件中。比如,我們可以將得到的每個item不是打印出來,而是存放在一個叫 duanzi.txt 的文件中也可以。
def save_content(self,content):
    myFile = open("./duanzi.txt", 'a')
    for temp in content:
        myFile.write("\n"+temp[0]+"\n"+temp[1]+"\n")
        myFile.write("-----------------------------------------------------")
    myFile.close()
  • 然後我們實現保存的方法 ,當前頁面的所有段子就存在了本地的duanzi.txt文件中。

第四步:實現循環抓取

  • 接下來我們就通過參數的傳遞對page進行疊加來遍歷 內涵段子吧的全部段子內容。

  • 同時也通過這個run方法實現整個程序的主要邏輯

def run(self):
        i = 1
        while True:
                html = self.load_page(self.url%i)
                result = self.get_content(html)
                print ("按回車繼續...")
                print ("輸入 quit 退出")
                command = input()
                if (command == "quit"):
                        break
                i+=1

最後,我們執行我們的代碼,完成後查看當前路徑下的duanzi.txt文件,裏面已經有了我們要的內涵段子。

以上便是一個非常精簡使用的小爬蟲程序,使用起來很是方便,如果想要爬取其他網站的信息,只需要修改其中某些參數和一些細節就行了。

以下爲自己聯繫案例:

import requests
import re
class my36kr_spider():
    def __init__(self):
        self.url = "https://36kr.com/"
        self.headers = {"user-agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.113 Safari/537.36",
                        "accept - encoding": "gzip, deflate, br",
                        "accept - language": "en - US, en; q = 0.9, zh - CN;q = 0.8, zh;q = 0.7"
                        }


    def load_page(self,url):
        response = requests.get(url , timeout = 10 ,headers = self.headers)
        if response.status_code == 200:
            return response.content.decode()
        else:
           print (response.status_code)

    def get_content(self,html):
        print(html)
        pattern = re.compile(r'<p\sclass="banner-left-item-title\sellipsis-1\sweight-bold">(.*?)</p>',re.S)
        t = pattern.findall(html)
        result = []
        for i in t:
            result.append(i)
        print(t)
        print(result)
        return result

    def run(self):
        url = self.url
        html = self.load_page(url)
        ree = self.get_content(html)




if __name__ == '__main__':
    my36kr_spider = my36kr_spider()
    my36kr_spider.run()

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章