原创 『圖』不鄰接植花1042

題目相關 原題鏈接:1042. 不鄰接植花 - 力扣(LeetCode) 涉及知識:圖 題目難度:★ 題目解讀 由題意知,和題目相關的數據結構是無向圖。其中圖中的每個節點的度最多爲3。爲了求解具體花色,我們可以模擬這個植花過程。即對於

原创 『位運算』將數字變成 0 的操作次數1342

題目相關 原題鏈接:1342. 將數字變成 0 的操作次數 - 力扣(LeetCode) 涉及知識:位運算 題目難度:★ 題目解讀 如果是基本思路的話,則是模擬運算計數即可;如果是通過位運算的話,就比較巧妙了。下面是一些基本的位運算,

原创 『字典樹』單詞的壓縮編碼820

題目相關 原題鏈接:820. 單詞的壓縮編碼 - 力扣(LeetCode) 涉及知識:字典樹 題目難度:★★ 題目解讀 經過簡單分析可知,如果能夠實現編碼複用,必須得滿足某個單詞是另一個較長單詞的後綴纔可以。很明顯,我們可以通過構造字

原创 『圖;廣度優先遍歷』地圖分析1162

題目相關 原題鏈接:1162. 地圖分析 - 力扣(LeetCode) 涉及知識:圖、廣度優先遍歷 題目難度:★★ 題目解讀 由於之前沒怎麼接觸過這類題型,所以想到的只是最粗淺的暴力遍歷的法子。 看了官方的題解以及其他大神的題解之後,

原创 『圖』鑰匙和房間841

題目相關 原題鏈接:841. 鑰匙和房間 - 力扣(LeetCode) 涉及知識:圖、深度優先遍歷、廣度優先遍歷 題目難度:★ 題目解讀 由題意知,各房間與其內其他房間的鑰匙構成了有向圖的結點和邊,我們需要做的是判斷是否存在所有某點通

原创 『哈希表;位運算』只出現一次的數字136

題目相關 原題鏈接:136. 只出現一次的數字 - 力扣(LeetCode) 涉及知識:哈希表,位運算 題目難度:★ 題目解讀 顯而易見,一個字典即可搞定。然而此題還有一種相當巧妙的解法是位運算,具體如: 如果我們對 0 和二進制位

原创 『圖』找到小鎮的法官997

題目相關 原題鏈接:997. 找到小鎮的法官 - 力扣(LeetCode) 涉及知識:圖、有向圖 題目難度:★ 題目解讀 根據題意,我們可以很明顯的看出需要用到有向圖這一數據結構,而我們需要從從圖中遍歷查找是否滿足入度爲N-1並且出度

原创 C++常用數據結構操作示例 0. 前言 1. C++標準庫常用數據結構 2. 常用數據結構操作示例 參考:

0. 前言 由於自己使用Python居多,對C++並不太熟悉,但是最近在刷算法題,所以這裏簡單整理總結一下C++常用數據結構的操作函數,以便方便查閱檢索。 1. C++標準庫常用數據結構 常用數據結構如下: string vector l

原创 『動態規劃』爬樓梯70

題目相關 原題鏈接:70. 爬樓梯 - 力扣(LeetCode) 涉及知識:動態規劃 題目難度:★ 題目解讀 通過簡單的分析,我們可以得到爬n層樓梯的方法之間的數量關係:,並且,。所以我們可以非常容易的通過使用動態規劃的思想解決此問題

原创 Manjaro下使用MySql

0.前言 其實這裏裝的是MariaDB,具體區別大家可以網上搜一下,對於開發者而言,差別應該是很小的. 注意:MariaDB 現在是 Arch Linux 官方默認的 MySQL 實現。Oracle MySQL 已被移動到 AUR,推薦所有

原创 Manjaro下使用MongoDB

0.前言 由於 MongoDB 修改了軟件授權協議,官方軟件倉庫已經刪除了此軟件包,需要的用戶可以選擇安裝 mongodb 或 mongodb-bin 軟件包。請注意從代碼編譯 mongodb 需要 ~160GB 磁盤空間,需要花費幾個小時

原创 (八) Shell

Scrapy終端是一個交互終端,供您在未啓動spider的情況下嘗試及調試您的爬取代碼。 其本意是用來測試提取數據的代碼,不過您可以將其作爲正常的Python終端,在上面測試任何的Python代碼。 該終端是用來測試XPath或CSS表達式

原创 (十一) Link Extractors

Link Extractors 是用於從網頁(scrapy.http.Response )中抽取會被follow的鏈接的對象。 Scrapy默認提供2種可用的 Link Extractor, 但你通過實現一個簡單的接口創建自己定製的Link

原创 (三) Spider

Spider是用戶編寫用於從單個網站(或者一些網站)爬取數據的類。 其包含了一個用於下載的初始URL,如何跟進網頁中的鏈接以及如何分析頁面中的內容, 提取生成 item 的方法。 Spider的創建 爲了創建一個Spider,您必須繼承 s

原创 (五) Default Scrapy Project Structure

雖然可以被修改,但所有的Scrapy項目默認有類似於下邊的文件結構: scrapy.cfg myproject/ __init__.py items.py pipelines.py settings.py