首先要有一個scrapy項目
這裏用我的爬取知乎用戶信息的項目來做例子:https://github.com/oldbig-carry/zhihu_user
在cmd上cd 進入項目
然後在項目目錄下創建 記錄文件:remain/001
然後輸入:scrapy crawl zhihu -s JOBDIR=remain/001
回車運行就行了
按ctrl+c 暫停
繼續運行只要再次輸入:scrapy crawl zhihu -s JOBDIR=remain/001就行了
需要重新爬取就換個文件 002就行了