原创 JS中json類型數據和string類型數據的相互轉換處理(官方文檔記錄)

(本文內容,從官網讀取,摘抄過來,僅爲查看方便之用,如需詳細信息,請☞官網查看) JSON包含的方法 JSON.parse() 解析JSON字符串並返回對應的值,可以額外傳入一個轉換函數,用來將生成的值和其屬性, 在返回之前進行某些修改。

原创 Python操作sqlite 報錯:sqlite3.OperationalError: database is locked

python操作sqlite數據庫時出現報錯信息: sqlite3.OperationalError: database is locked 查看網絡資料後得知,是因爲sqlite只支持單線程操作,所以如果此時其他軟件等打開了這個數據庫文

原创 Ubuntu下su:authentication failure的解決辦法

$ su - root Password:  su: Authentication failure Sorry. 這時候輸入 $ sudo passwd root Enter new UNIX password:  Retype n

原创 兩臺虛擬機之間相互copy文件或者文件夾(加快傳輸速度)

參考文件來源:https://blog.csdn.net/qq_41699958/article/details/79311746  1、虛擬機和本地進行文件的相互傳輸: 互相拷貝文件: 將mysql配置文件上傳到116服務器相應文件夾內

原创 python2.7通過api和threading實現多進程爬取b站up主信息的小程序

1、通過chrome瀏覽器的F12進行網絡數據加載api的獲取。 2、分析加載數據的格式,並通過json模塊進行數據格式的轉換,方便我們對數據進行獲取和進一步操作。 3、在__name__ == __main__'文件中對我們我們的程序內

原创 requests進行網絡內容獲取,報錯UnicodeEncodeError: 'latin-1'(解決方法,親測有效)

報錯完整信息: UnicodeEncodeError: 'latin-1' codec can't encode character '\u2026' in position 30: ordinal not in range(256) 報

原创 requests爬蟲使用的IP代理未生效(解決方法)

在通過requests代理進行網絡爬蟲,或者是scrapy進行網絡爬蟲時,不可避免用到IP代理方式一個IP多次訪問導致IP地址被封禁,結果無法獲取數據的尷尬。但是有時候出現IP代理無法失效的情況: 解決方法爲: 查看請求的url地址使用的

原创 Linux查看內存和cpu利用率的命令(親測有效)

參考資料: https://zhidao.baidu.com/question/287497401.html https://blog.csdn.net/u011341352/article/details/53635484  1、top

原创 豆瓣API常用api總結實例

背景:目前豆瓣api的開發接口已經不向個人用戶開放了,但是接口還是可以用的,現將自己已知的幾個接口展示如下: 最近熱映 http://api.douban.com/v2/movie/in_theaters 可添加訪問參數: star

原创 (轉載)很全很強大的官方API集合

(轉載自:https://blog.csdn.net/u012562943/article/details/54613647#commentsedit) 原作者:一杯甜酒 第一 筆記 爲知筆記(http://www.wiz.cn/m

原创 微信小程序中將json字符串轉換爲json數組

將後臺返回的內容通過JSON.parse()函數處理,然後就可以轉換爲數組對象,可以通過索引進行獲取和使用了。

原创 Scrapy爬蟲執行中yield請求未被拋出(或拋出未執行)解決方法(親測有效)

當我們在執行scrapy調試的時候可能會遇到yield請求未正確拋出的情況。 1、查看scrapy執行日誌 日誌中的這一項表示,我們的請求被過濾掉了20條。 解決方法: 1、將我們的請求ip地址域名(如:blog.csdn.net)添加

原创 Scrapy爬蟲時報錯“No module named 'win32api'”,解決方法(親測有效)

 1、寫了一個scrapy的demo爬蟲,但是運行爬蟲時遇到以下錯誤,提示缺少win32api模塊 百度後發現,windows下需要安裝一個名爲pywin32的模塊,通過命令pip install pywin32安裝既可以。 安裝完成

原创 Pycharm中對scrapy爬蟲工程開啓調試模式(親測有效)

1、首先通過命令行創建scrapy爬蟲項目,添加爬蟲文件。然後在scrapy.cfg同級目錄下創建一個調試程序, 結構如下: 在main.py文件中輸入引入scrapy.cmdline進行在scrapy中執行類cmd命令 from s

原创 Windows 10 專業版激活方法(親測有效)暫時只可以用180天(後續更新可以更久的激活方式)

右鍵單擊開始按鈕: 管理員方式運行Powershell,然後依次輸入下面三條命令,回車,會看到三條提示語句。 分別爲, slmgr /ipk W269N-WFGWX-YVC9B-4J6C9-T83GX 紅色字體爲激活密鑰 獲取密鑰成功。