原创 TesorFlow 測試曼德布洛特(Mandelbrot) 實戰
代碼: # Import libraries for simulation import tensorflow as tf import numpy as np # Imports for visualization impor
原创 cdh5.7.1 +kerberos + livy server v0.2.0 安裝測試步驟
Livy 是一個開源的 REST接口,負責和Apache Spark進行交互。 支持執行片段代碼和程序在一個Spark context 裏面,可以運行在locally 或者 Apache Hadoop Yarn 模式。 交付式
原创 增強分析之美
AI在分析領域的成功關鍵是什麼?增強分析- 是這樣一種方法,它結合了機器智能和人類感性經驗去加速洞察,去挖掘新的或者沒有預期到的發現,驅動任何角色和技術水平的用戶都能夠擁有數據探查能力。 強調了人工智能和人類的互動、視角結
原创 RISELab 之 Ray介紹
UC Berkeley 創立了一個新的實驗室RISELab,創建者都是從AMPlab出來的,未來五年在實時輸入數據上面進行人工智能開發。 一種區別與spark、mapreduce分佈式執行系統,更關注應對興起的AI和機器學習領
原创 Apache Spark 讀寫Apache ignite 代碼實戰
package com.zhw.bigdata.ignite; import org.apache.ignite.spark.IgniteDataFrameSettings; import org.apache.spark.sql.D
原创 Spark SQL 操作Apache ignite 代碼實戰
package com.zhw.bigdata.ignite; import org.apache.ignite.spark.IgniteDataFrameSettings; import org.apache.spark.sql.D
原创 基於kubernetes1.6.0+Zeppelin0.7.1 實戰
Kubernetes概述 Kubernetes是Google開源的Docker容器集羣管理系統,爲容器化的應用提供資源調度、部署運行、服務發現、擴容縮容等一整套功能。Kubernetes起源的希臘語,是領航或者舵手之意,工程領域同
原创 docker+centos7+nginx1.2.0+ldap +jupyter實戰
最近在搭建JupyterHub 的時候遇到只支持python3,爲了滿足在大數據平臺需要python2的問題,只能選擇搭建Jupyter,但是Jupyter不支持ldap權限認證,只能使用Nginx 對jupyter端口鏡像權限
原创 編程題:兩個線程,一個線程輸出奇數,一個線程輸出偶數,保證輸出順序是:2、1、4、3、……、50、49、52、51、54、53、……、100、99
解法1:使用Synchronized package printNum; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executo
原创 TensorFlow 模擬水滴落入水池 實戰
import tensorflow as tf import numpy as np import PIL.Image from cStringIO import StringIO from IPython.display imp
原创 深入理解 Scala 中Closures
closules的理解:“An object is data with functions. A closure is a function with data.” — John D. Cook 那麼scala的closure 怎
原创 hadoop Yarn distributedshell使用方法
hadoop Yarn distributedshell 相當於MapReduce的wordcount,可以見證Yarn的威力,各位也嘗試一下吧 [root@HDP02 hadoop-yarn]# hadoop org.apach
原创 Java ExecutorService 實現隊列消費
package MultiThread; import java.util.ArrayList; import java.util.concurrent.ExecutorService; import java.util.concur
原创 HDFS HA java API 實戰
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org.apache.hadoop.io.IOUtils; impor
原创 從源碼編譯Cloudera CDH 5.7.1的Spark2.1.1
參考:https://rui.sh/build_cloudera_spark_from_source.html $ ./make-distribution.sh -DskipTests \ -Dhadoop.versio