原创 Win10 安裝 Anaconda3 用 Anaconda3 安裝TensorFlow 1.2 (只支持python3.5)

Win10 安裝 Anaconda3 1.安裝Anaconda3 選擇相應的Anaconda進行安裝,下載地址點擊這裏,下載對應系統版本的Anaconda,官網現在的版本是Anaconda 4.3.1 for python3.6。筆者安裝

原创 mysql之limit m,n

limit是mysql的語法 select * from table limit [m],n; 其中,m—— [m]爲可選,如果填寫表示skip步長,即跳過m條。 n——顯示條數。指從第m+1條記錄開始,取n條記錄。 如: select

原创 python imblearn toolbox 解決數據不平衡問題(四)——聯合採樣、集成採樣、其它細節

原文鏈接:https://blog.csdn.net/mathlxj/article/details/89677701 一、Combination of over- and under-samp

原创 SecureCRT的安裝與破解

SecureCRT的安裝與破解(過程很詳細!!!)   使用SecureCRT可以方便用戶在windows環境下對linux主機進行管理,這裏爲大家講一下SecureCRT的破解方法,僅供大家參考學習:   1.首先在本站下載Secure

原创 java獲取一個byte字節裏的某個bit值或連續的幾個bit值

    在java裏,一個byte佔8位 ( bit0-bti7 ),那我們怎麼去獲取其中的某個bit值或連續的幾個bit值呢? 獲取單個bit值: //b爲傳入的字節,i爲第幾位(範圍0-7),如要獲取bit0,則i=0 public

原创 Linux系統中安裝中文字體方法

Linux系統中安裝中文字體方法 本例子以安裝微軟雅黑和黑體爲例,其他的同理; 0.準備工作:     沒有的可以先下載字體,或是到C:\Windows\Fonts目錄下找   《simhei.ttf(黑體)》點擊下載; 《msyh.tt

原创 機器學習中的類別不均衡問題

基礎概念 類別不均衡是指在分類學習算法中,不同類別樣本的比例相差懸殊,它會對算法的學習過程造成重大的干擾。比如在一個二分類的問題上,有1000個樣本,其中5個正樣本,995個負樣本,在這種情況下,算法只需將所有的樣本預測爲負樣本,那麼它的

原创 過採樣技術KMeans-SMOTE

(1)現有的研究  處理類不平衡的方法要麼改變算法本身,要麼把不同類的錯誤分類成本納入分類過程,要麼修改用於訓練分類器的數據。重新採樣訓練數據可以過採樣或欠採樣。過採樣技術要麼重複現有樣本,要麼生成人工數據。SMOTE算法被提出用來避免隨

原创 碩士生寫小論文的經驗(轉載)

今天一大早來實驗室,收到一份掛號信,打開一看,是編輯社寄過來的發票和稿件錄用證明。心情很平靜,因爲這些都是意料中的事情,只是那1290RMB,看得我心如刀割啊。我投的是計算機核心期刊,影響因子還算可以,編輯社的服務態度還好,有問必答。說是

原创 IEEE xplore論文免費下載

轉載自: https://blog.csdn.net/fkyyly/article/details/80397856#commentsedit   方法如下: 1.找到某篇文章: https://ieeexplore.ieee.org/d

原创 java list排序

1、簡介   這個和數組的排序又不一樣了。   其實Java針對數組和List的排序都有實現,對數組而言,你可以直接使用Arrays.sort,對於List和Vector而言,你可以使用Collections.sort方法。   Java

原创 IntelliJ-IDEA相關鏈接

1,最新IntelliJ IDEA 激活(2100年到期) https://blog.csdn.net/qq_37350706/article/details/81334489  

原创 調參----貝葉斯優化(BayesianOptimization)

from sklearn.datasets import make_classification from sklearn.model_selection import cross_val_score from sklearn.ense

原创 強大而精緻的機器學習調參方法:貝葉斯優化

一、簡介 貝葉斯優化用於機器學習調參由J. Snoek(2012)提出,主要思想是,給定優化的目標函數(廣義的函數,只需指定輸入和輸出即可,無需知道內部結構以及數學性質),通過不斷地添加樣本點來更新目標函數的後驗分佈(高斯過程,直到後驗分

原创 xgboost中XGBClassifier()參數詳解

http://www.cnblogs.com/wanglei5205/p/8579244.html 常規參數 booster gbtree 樹模型做爲基分類器(默認) gbliner 線性模型做爲基分類器 silent