原创 L2-4 鏈表去重

L2-4 鏈表去重(25 分) 給定一個帶整數鍵值的鏈表 L,你需要把其中絕對值重複的鍵值結點刪掉。即對每個鍵值 K,只有第一個絕對值等於 K 的結點被保留。同時,所有被刪除的結點須被保存在另一個鏈表上。例如給定 L 爲 21→

原创 u3d遊戲開發 宣雨松第一版 第二章

根據書上敲的代碼,因爲是js的,這裏是用C#寫的,直接移植的時候會報“不可調用的成員 Rect 不能像方法一樣使用。” 查看源碼發現,Rect是個類,所以在強類型語言中應該加上new。

原创 codeforces 897C Nephren gives a riddle

C. Nephren gives a riddle time limit per test2 seconds memory limit per test256 megabytes inputstandard input o

原创 [acm/icpc2016ChinaFinal][CodeforcesGym101194] Mr.Panda and TubeMaster

這個題從範圍來看,不難想到跟費用流有關係。但感覺跟費用流聯繫起來還是很難呀。拆點,這個題可以看成是給每個點找一個後繼點,這一點是解題的關鍵。然後就是要黑白染色定向,定向這個點能走橫邊還是豎邊,定向之後,神奇的發現所有的邊都被連了有

原创 C++ string字符串的增刪改查

轉載請標明出處: http://blog.csdn.net/u011974987/article/details/52505004 本文出自:【徐Xiho的博客】 c++ 提供的string類包含了若干實用的成員

原创 K-近鄰算法

k-近鄰算法概述 優點:精度高、對異常值不敏感、無數據輸入假定。 缺點:計算複雜度高、空間複雜度高。 適用數據範圍:數值型和標稱型。 工作原理:存在一個樣本數據集合,也稱作訓練樣本集,並且樣本集中每個數據都存在標籤,即我們知

原创 HDU 4085 斯坦納樹

近期更新可能會比較少,只會更新新的知識點,因爲要儘快多刷一些題。。。。 詳解請參照:詳解 然後按照思路,自己搞的份模版。 /* * Steiner Tree:求,使得指定K個點連通的生成樹的最小總權值 * st[i

原创 python中array.sum(axis=?)的用法

根據代碼中運行的結果來看,主要由以下幾種: 1. sum():將array中每個元素相加的結果 2. axis對應的是維度的相加。 比如: 1、axis=0時,對飲搞得是第一個維度元素的相加, [[0,1,2,3],[4,5,

原创 7-4 家譜處理

人類學研究對於家族很感興趣,於是研究人員蒐集了一些家族的家譜進行研究。實驗中,使用計算機處理家譜。爲了實現這個目的,研究人員將家譜轉換爲文本文件。下面爲家譜文本文件的實例: John Robert Frank

原创 機器學習開篇

相關術語 通常我們爲算法輸入大量已分類數據作爲算法的訓練集。 訓練集是用於訓練機器學習算法的數據樣本集合。 目標變量是機器學習算法的預測結果,在分類算法中目標變量的類型通常是標稱型的,而在迴歸算法中通常是連續型的。 訓練樣本集

原创 模型評估與選擇

評估方法 留出法:直接將數據集D劃分爲兩個互斥的集合,其中一個是訓練集S,另一個是測試機(準確說是驗證集)T。訓練集和驗證集的劃分要儘可能保持數據分佈一致。常用作法將數據集的2/3 ~ 4/5用作訓練集,其餘的用作驗證集。由

原创 辛普森積分

#include <iostream> #include <cstdio> #include <algorithm> #include <cmath> #define eps 1e-9 using namesp

原创 模型評估與模型選擇

評價一個機器學習模型的好壞需要特定的評估方法,並據此對模型進行選擇,從而得到一個更好的模型。本文主要是關於模型評估與模型選擇的筆記,以及利用 scikit-learn 對 Logistic迴歸進行的結果進行交叉檢驗。 1.訓練誤差

原创 決策樹

創建分支的僞代碼函數createBranch() if so return 類標籤 else 尋找劃分數據集的最好特徵 劃分數據集 創建分支節點 for 每個劃分的子集

原创 Logistic迴歸

基於Logistic迴歸和Sigmoid函數的分類 logistic迴歸: 優點:計算代價不高,易於理解和實現。 缺點:容易欠擬合,分類精度可能不高。 適用數據類型:數值型和標稱型數據。 Sigmoid函數具體的計算公式爲如