原创 spark-submit 和 spark-shell 後面可跟的參數

站在巨人的肩膀上:http://spark.apache.org/docs/latest/submitting-applications.html Submitting Applications The spark-submit s

原创 java實現:撲克牌

package test; public class DeckofCard { public static void main(String[] args) { String[] suits = {"紅桃"

原创 [翻譯]Spark編程指南(Python版)

[翻譯]Spark編程指南(Python版) 站在巨人的肩膀上:http://cholerae.com/2015/04/11/-%E7%BF%BB%E8%AF%91-Spark%E7%BC%96%E7%A8%8B%E6%8C%87%E

原创 java實現:獲取隨機數

/*Math.random()生成[0,1)之間的隨機數。 *(int)(Math.random()*10) //生成0-9之間的隨機數 *(int)(50 + Math.random()*50) //生成50-99之間的隨機數 *

原创 常用數據結構的時間複雜度

原文鏈接: http://www.cnblogs.com/gaochundong/p/data_structures_and_asymptotic_analysis.html 感謝有這麼優秀的文章,先耍一下流氓未經版主同意轉載過來,不

原创 Scala中的String.split函數

站在巨人的肩膀上:http://www.cnblogs.com/davidhaslanda/p/4050471.html  http://swiftlet.net/archives/709 本篇博文將詳細解釋scala中Str

原创 SPARK_RDD_API

map & flatMap 站在巨人的肩膀上:http://www.bkjia.com/yjs/927704.html Spark 中 map函數會對每一條輸入進行指定的操作,然後爲每一條輸入返回一個對象; 而flatMap函數則是

原创 Hbase與Hive的"區別"

站在巨人的肩膀上: http://blog.csdn.net/maixia24/article/details/14163203 http://www.csdn.net/article/2014-05-29/2820004-Hive-HB

原创 淺談 Scala 中下劃線的用途

站在巨人的肩膀上:http://my.oschina.net/leejun2005/blog/405305 Scala 作爲一門函數式編程語言,對習慣了指令式編程語言的同學來說,會不大習慣,這裏除了思維方式之外,還有語法層面的,比如 

原创 java實現:十進制轉換爲十六進制

package test; import java.util.Scanner; public class DecimalToHex { public static void main(String[] args) {

原创 掛載nfs

站在巨人的肩膀上: http://blog.sina.com.cn/s/blog_a9fd746b0101762t.html http://wenku.baidu.com/link?url=8tqmkDT1b-ojTKZ-o_Ngvulm

原创 java實現:打印前n個質數

package test; import java.util.*; public class PrimeNumber { public static void main(String[] args) { S

原创 spark集羣管理問題集錦

溫馨提示:斜體塗黑部分是大家需要改成自己的喲 1. Standalone模式下,端口不能綁定,worker啓動不起來: 16/01/03 21:35:11 ERRORNettyTransport: failed to bind to /

原创 ubuntu打軟件報錯

1. 打開圖形化軟件時報: GLib-GIO-CRITICAL **: g_dbus_connection_get_unique_name: assertion 'G_IS_DBUS_CONNECTION (connection)' f

原创 hadoop2.7.1 僞分佈式搭建

站在巨人的肩膀上: http://www.powerxing.com/install-hadoop-simplify/ 本文適用於hadoop 2.x所有版本 OS:Ubuntu 14.04 Hadoop version: hadoop