原创 [zz]推薦系統-從入門到精通

爲了方便大家從理論到實踐,從入門到精通,循序漸進系統地理解和掌握推薦系統相關知識。特做了個讀物清單。大家可以按此表閱讀,也歡迎提出意見和指出未標明的經典文獻以豐富各學科需求(爲避免初學者疲於奔命,每個方向只

原创 Deep learning的一些教程[rz]

  轉載自http://baojie.org/blog/2013/01/27/deep-learning-tutorials/   Stanford Deep Learning wiki: http://deeplearning.st

原创 [ZZ]計算機視覺、模式識別、機器學習常用牛人主頁鏈接

牛人主頁(主頁有很多論文代碼) Serge Belongie  at UC San Diego Antonio Torralba  at MIT Alexei Ffros  at CMU Ce Liu  at Microso

原创 Deep learning的一些有用鏈接

deeplearning tutorials:[url]http://deeplearning.net/tutorials/[/url][url]http://www.iro.umontreal.ca/~b

原创 期望最大(EM)算法推導

X是一個隨機向量,我們希望找到[img]http://latex.codecogs.com/gif.latex?\theta[/img]使得[img]http://latex.codecogs.com/gi

原创 [zz]關於xargs,你可能不知道的

如果你曾經花了許多時間在Unix命令行上,那麼或許你已經見過xargs了,如果你還沒聽過xargs,那就先讓我來解釋下,xargs是一個從標準輸入或許參數並執行命令的程序。常見使用我常常見到將find和xa

原创 不要向上層暴露本層以及所依賴的接口細節

h1.背景在攻略全文搜索中,搜索的接口很豐富,並且將來可能會增加更多的需求。搜索業務類提供的接口既要能滿足將來的擴展,又不能暴露底層的細節,還要避免功能組合帶來接口的膨脹。h1.設計方法搜索接口的依賴關係,

原创 使用SGD(Stochastic Gradient Descent)進行大規模機器學習

[size=x-large]使用SGD(Stochastic Gradient Descent)進行大規模機器學習[/size]1 基於梯度下降的學習對於一個簡單的機器學習算法,每一個樣例包含了一個(x,y

原创 loss function

幾種損失函數:對於迴歸問題:平方損失:[img]http://latex.codecogs.com/gif.latex?l\(y,\hat{y}\)=\(y-\hat{y}\)^2[/img]絕對值損失:[

原创 Ruby HTTP/HTML parser相關資源

Net::HTTP: [url]http://ruby-doc.org/stdlib/libdoc/net/http/rdoc/classes/Net/HTTP.html[/url]Nokogiri: [u

原创 【zz】幾個簡單選項讓你的Readline(Bash)更好用

Reddit上的一位仁兄貼出了他的readline手冊學習成果,只需要在.inputrc中加入幾個簡單的選項,就可以讓你的readline(Bash)界面變得更好用。set completion-ignor

原创 松本行弘的程序世界

全書涉及到程序設計的方方面面,買這邊書的目的希望能看到看看Ruby設計抉擇和最基本的原則。作者在這本書上闡述了Ruby最基本的設計原則::簡潔,擴展,穩定。對設計block,而不是直接使用閉包,以及爲什麼是

原创 bash的幾種for循環

1、羅列式[code]for VARIABLE in 1 2 3 4 5 .. Ndo command1 command2 commandNdone[/code][code]#!/bin/bashfor i

原创 【zz】一個成功的Git分支模型

原文請見: http://www.juvenxu.com/2010/11/28/a-successful-git-branching-model/   本文中我會展示一種開發模型,一年前該模型就已經被我用在所有的項目中(包括工作中的項目

原创 信息論學習總結(一)基礎知識

我們考慮一下一個離散的隨機變量x,當我們觀察到它的一個值,能給我們帶來多少信息呢?這個信息量可以看做是我們觀察到x的這個值帶來的驚訝程度。我們被告知一個不太可能發生的事發生了要比告知一個非常可能發生的事發生