原创 華爲2020軟件精英挑戰賽(有向圖找環)比賽記錄/代碼開源

成績 初賽0.3384,複賽A榜10.x,複賽B榜0分,雖然結果不太好,但是過程還行吧(就是太累了),至少學到了很多東西認識了很多大佬! 雖然昨天覆賽B榜三發WA圓滿結束比賽,但是還是想記錄一下畢竟在這比賽上花了一個多月時間還通了

原创 LeetCode刷題心得

文章目錄1. LeetCode 113 - 路徑總和 II2. LeetCode 236 - 二叉樹的最近公共祖先3. LeetCode 289 - 生命遊戲 1. LeetCode 113 - 路徑總和 II 1、 二叉樹的先序

原创 PTA數據結構習題(浙江大學)

感謝疫情期間PTA開放免費練習,趁着這個機會補一下數據結構的代 文章目錄1. 實驗11-2-2 學生成績鏈表處理(得20/滿分20)2. 習題1.8 二分查找(20分/20分)3. 習題1.9 有序數組的插入 1. 實驗11-

原创 FCN-Pytorch實現源碼閱讀筆記

代碼參考Github : https://github.com/wkentaro/pytorch-fcn 1. _fast_hist import numpy as np def _fast_hist(label_true,

原创 Windows10下安裝Ubuntu18.04雙系統掛載分區及啓動設置

之前在聯想筆記本上裝了win10+Ubuntu18.04,今天又在臺式機上裝了ubuntu18.04(win10雙系統),安裝過程中系統分區花了不少時間看網上的教程,現在記錄一下。 臺式機是華碩TUF系列主板,16G內存,給ubu

原创 Pytorch tutorials學習筆記

每一段代碼後都有跑出來的結果 參考網址 https://pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html 文章目錄1. Neural Net

原创 CS231n-assignment2中'col2im_6d_cython' is not defined問題解決方案

查詢網上的方法之後,記錄一下解決我的問題的方法。 最開始cs231n文件夾下應該是沒有這兩個文件的,然後運行的時候報錯。代碼中其實也提到了解決方案: The fast convolution implementation dep

原创 Stanford-CS231n-assignment2-Dropout

文章目錄1- layers.py中dropout部分實現2- layer_utils.py加入的幾個dropout層函數3- fc_net.py的修改,加入dropout判斷4- 結果 1- layers.py中dropout部分

原创 C++異常處理機制的作用(個人理解)

之前一直沒有對異常處理機制有個好的認知,總感覺這個東西有些雞肋。 但最近在寫C++/MFC/Halcon開發的程序的時候突然感覺領會了一些異常處理機制的作用,現記錄下來。 Halcon算法有時會碰到這種問題,臺式機沒有連接攝像設備

原创 Stanford-CS231n-assignment2-features

1. layers.py from builtins import range import numpy as np def affine_forward(x, w, b): """ Computes the

原创 cs231n-18/19-assignment2源碼閱讀筆記

最近想自己做一些簡單的比賽試一試,也算是學習的實踐,但是感覺網上在Python對圖像識別數據預處理的教程好像並不多,忽然想起cs231n的課程作業中有大量源碼啊!!!而且還是stanford的大佬所寫!!!不看簡直暴殄天物!!!所

原创 Stanford-CS231n-assignment1-features

其實就是前面寫過的SVM和神經網絡的驗證部分,直接拿過來用就好了,就是神經網絡的超參數需要自己調節以達到好的分類效果。 1. SVM驗證部分 # Use the validation set to tune the learning r

原创 Neural Networks and Deep Learning中How the bp algorithm works的一些記錄與總結

本章的鏈接:http://neuralnetworksanddeeplearning.com/chap2.html 1. 梯度下降的理解 在神經網絡的輸出層(output layer)可以定義一個loss function,例如C,我們使

原创 Stanford-CS231n-assignment1-Neural Network

先記錄一個很好用的畫神經網絡圖的網站:http://alexlenail.me/NN-SVG/index.html 然後因爲對神經網絡的幾個層的名字到底應該標註在哪有點疑惑,現在看了幾段代碼才弄清楚,所以標註在圖上記錄一下,如下圖(激活函

原创 Stanford-CS231n-assignment1-Softmax梯度推導及代碼

下圖是softmax的第一題,也就是循環法求梯度公式推導,推導中跟隨一個特定的元素的前世今生,來展現整個softmax梯度的推導過程,其中字母有些混亂,i/j傻傻分不清楚,有多個地方都用到j,但代表的含義不盡相同: Softmax梯度推導