Coursera Machine Learning Week 3 - Programming Exercise 2: Logistic Regression

sigmoid.m

g = 1 ./ (1 + exp(-z));

costFunction.m

S = sigmoid(X * theta);
J = ( (-y' * log(S)) - ((1 - y') * log(1-S)) ) / m;
grad = (S - y)' * X / m;

predict.m

p = round(sigmoid(X * theta));

costFunctionReg.m

T = theta;
T(1) = 0;
S = sigmoid(X * theta);
J = ( (-y' * log(S)) - ((1 - y') * log(1-S)) ) / m + lambda / (2 * m) * sum(T .^ 2);
grad = (S - y)' * X / m + lambda / m * T';

-eof-

發佈了53 篇原創文章 · 獲贊 20 · 訪問量 13萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章