第二章 urrlib數據挖掘 2.8異常處理

在爬蟲過程中我們難免會出現很多錯誤,但是對於一些不是很重要或者你想快速知道出錯的原因,我們可以利用異常處理
首先用一段代碼運算一下:
例如我們想訪問多個網址,但是我們不想中途停下來

import urllib.request as request
list = [
    "https://www.baidu.com/",
    "https://www.baidu.com/",
    "http://halihkawnkfhgjkfgkfkjhfkawhknh22.com/",#這是我亂打的一個網址,所以訪問不了
    "https://www.baidu.com/",
]
i=0
for url in list:#對列表元素循環
    req = request.urlopen(url)
    i+=1
    print('第',i,'請求成功!')

這時它就偏偏出了錯,而且停止運行了,
在這裏插入圖片描述
這時候異常處理就派上大用場了

import urllib.request as request
list = [
    "https://www.baidu.com/",
    "https://www.baidu.com/",
    "http://halihkawnkfhgjkfgkfkjhfkawhknh22.com/",
    "https://www.baidu.com/",
]
i=0

for url in list:
    try:
        req = request.urlopen(url)
        i+=1
        print('第', i, '請求成功!')
    except Exception as e:#注意異常處理的類型很多,這裏用最常見的一種
        print(e)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章