scrapy爬蟲的暫停與重啓

首先要有一個scrapy項目


這裏用我的爬取知乎用戶信息的項目來做例子:https://github.com/oldbig-carry/zhihu_user


在cmd上cd 進入項目


然後在項目目錄下創建 記錄文件:remain/001


然後輸入:scrapy crawl  zhihu  -s JOBDIR=remain/001


回車運行就行了


按ctrl+c 暫停


繼續運行只要再次輸入:scrapy crawl  zhihu  -s JOBDIR=remain/001就行了


需要重新爬取就換個文件 002就行了


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章