原创 sklearn MLPclassifier 參數解析

https://blog.csdn.net/weixin_38278334/article/details/83023958 其中: hidden_layer_sizes :例如hidden_layer_sizes=(50, 50),表示

原创 sklearn_randomforest_隨機森林參數調參

https://blog.csdn.net/w952470866/article/details/78987265/

原创 邏輯迴歸,決策樹,SVM,隨機森林,GBDT,Xgboost,lightGBM的評分效果觀察

https://blog.csdn.net/weixin_41710583/article/details/85016622

原创 sklearn中的SVM算法調參

目錄 SVM相關知識點回顧 1.1. SVM與SVR 1.2. 核函數 sklearn中SVM相關庫的簡介 2.1. 分類庫與迴歸庫 2.2. 高斯核調參 2.2.1. 需要調節的參數 2.2.2. 調參方法:網格搜索

原创 CNN 吳恩達講解

https://blog.csdn.net/ice_actor/article/details/78648780

原创 RNN循環神經網絡

全連接神經網絡和卷積神經網絡他們都只能單獨的取處理一個個的輸入,前一個輸入和後一個輸入是完全沒有關係的。但是,某些任務需要能夠更好的處理序列的信息,即前面的輸入和後面的輸入是有關係的。比如,當我們在理解一句話意思時,孤立的理解這句話的每個

原创 LSTM做文本生成(基於bag_of_word)

數據:使用丘吉爾的人物傳記作爲我的學習語料。 框架:keras import numpy from keras.models import Sequential from keras.layers import Dense from k

原创 LSTM做文本生成(基於word2vec)

數據:使用丘吉爾的人物傳記作爲我的學習語料 框架:Keras import os import numpy as np import nltk from keras.models import Sequential from keras

原创 LSTM原理及實現

https://blog.csdn.net/gzj_1101/article/details/79376798

原创 樸素貝葉斯,拉普拉斯平滑

條件概率與貝葉斯定理 樸素貝葉斯 拉普拉斯平滑 目的: 在訓練集有限的情況下,給定類別,某一特徵值出現的條件概率可能爲0,這樣在貝葉斯公式中分子和分母都爲0,爲了避免這種情況,就要用到拉普拉斯平滑。 即:在文本分類的問題中,當一個詞語

原创 根據姓名預測性別

算法:樸素貝葉斯 import pandas as pd from collections import defaultdict import math train=pd.read_csv("train.txt") test=pd.r

原创 word2vec 對影評情感進行預測

上篇用了countvectorize進行文本embling,忽視了文本詞中上下文的語義。因此這裏用到了word2vec。 word2vec訓練詞向量。 import os import re import numpy as np imp

原创 中文文本情感分析(word2vec)

gensim做word2vec文本處理,sklearn.svm做建模 from sklearn.cross_validation import train_test_split from gensim.models.word2vec i

原创 對影評進行情感預測(countvectorizer,randomforeast)

參加了kaggle的競賽,主題爲對影評進行情感預測。以下爲我的baseline思路. 所用到的包:countvectorize,randomforestclassifier. import #import所需要的庫 import os

原创 word2vec的延伸:DOC2VEC

雖然WORD2VEC表示的詞向量不僅考慮了詞之間的語義信息,還壓縮了維度。但是,有時候當我們需要得到sentence/Document的向量時,雖然可以直接將sentence/Document中所有詞的向量取均值作爲sentence/Do