原创 綜述協同過濾推薦中存在的常見問題及解決方法

原文地址:http://hi.baidu.com/liuya802/blog/item/5a5adb24f7d4017235a80ff9.html 1 協同過濾在應用中存在的問題     儘管協同過濾在電子商務推薦系統中的應用獲得了

原创 組件編程基礎

原文地址:http://hi.baidu.com/zdqb/blog/item/837c46099b5229ce3bc763d7.html 一、組件概念  簡而言之,組件就是對象。C++ Builder中叫組件,Delphi中叫部件,而

原创 檢測C++的內存泄漏

原文地址:http://hi.baidu.com/suyeah/blog/item/ed63450795fadc6102088193.html   檢測C++的內存泄漏(win7 64 vs2010) 2011-08-09 17:41

原创 Linux環境下學C語言開發要學些什麼

引文地址:http://os.yesky.com/lin/316/7762816.shtml 一、工具的使用   1、學會使用vim/emacs,vim/emacs是 Linux下最常用的源碼編輯具,不光要學會用它們編輯源碼,還要學

原创 韓冀中談Hadoop【轉自圖靈網】

引文地址:http://www.cnblogs.com/welbeckxu/archive/2012/01/05/2313778.html 11月16日,圖靈社區採訪了《Hadoop實戰》(Hadoop in Action)一書譯者韓

原创 Linux select()函數分析

引文地址:http://blog.sina.com.cn/s/blog_693301190100wshd.html Select在Socket編程中還是比較重要的,可是對於初學Socket的人來說都不太愛用Select寫程序,他們只是習慣

原创 使用異或交換兩個數的原理

大家都知道,假如有a,b兩個整型數,我們可以用 a^=b; b^=a; a^=b; 來交換a,b的值,在這裏我說說其中的原理: ^ 在 C 裏面是按位異或操作符,相同的話異或的結果就是 0,不同的話就是 1。舉個例子,比如 a 表示

原创 QT信號和槽機制概述

原文地址:http://www.ibm.com/developerworks/cn/linux/guitoolkit/qt/signal-slot/ QT 是一個跨平臺的 C++ GUI 應用構架,它提供了豐富的窗口部件集,具有面向對

原创 在ubuntu部署hadoop之單機模式

引文地址:http://www.cnblogs.com/welbeckxu/archive/2011/12/29/2306526.html 這幾天剛接觸Hadoop,在學習如何搭建一個Hadoop集羣。在這分享一下經驗,ubuntu1

原创 strcpy 與 memcpy的區別

引文地址:http://www.cnblogs.com/stoneJin/archive/2011/09/16/2179248.html strcpy和memcpy都是標準C庫函數,它們有下面的特點。 strcpy提供了字符串的複製。即

原创 在ubuntu部署hadoop之僞分佈模式

引文地址:http://www.cnblogs.com/welbeckxu/archive/2011/12/29/2306757.html 接上一篇《ubuntu部署hadoop之單機模式》。 已經安裝好了jdk和hadoop-0

原创 在ubuntu部署hadoop之全分佈模式

引文地址:http://www.cnblogs.com/welbeckxu/archive/2011/12/30/2306887.html 接上一篇《ubuntu部署hadoop之僞分佈模式》。 安裝一個Hadoop集羣時,需要專門

原创 linux下安裝libevent和memcache

引文地址:http://blog.csdn.net/rainysia/article/details/6780554 1: 還是下載 Memcache是用C編寫的,要用到C的libevent來處理接口 點擊下載memc

原创 不用判斷語句,求兩個數的最大值

Hash 思想 1. 首先引進一種簡單的思路:   假設我們對兩個無符號整型進行求最大值的操作: #define BIT_SIZE (sizeof(int) * 8) int max_ui32(unsigned int a, unsi

原创 Pipes配置

引文地址:http://www.linuxidc.com/Linux/2011-12/48509.htm 1.安裝配置好Hadoop 常用命令:Hadoop dfs -ls pathHadoop dfs -rmr fileHadoop