原创 flink SQL
1.Flink SQL 支持三種窗口類型,分別爲Tumble Windows、HOP Windows 和Session Windows,其中HOP Windows 對應Table API 中的Sliding Window,同時每種
原创 flink基礎知識
1.框架比較 Storm延遲低但是吞吐量小。 Spark Streaming吞吐量大但是延遲低。 Flink是一種兼具低延遲和高吞吐量特點的流計算技術,還是一套框架中同時支持批處理和流處理的一個計算平臺。 2.flink sta
原创 spark1.6將數據寫入ES2.4.5衝突解決,自定義依賴包
<?xml version="1.0" encoding="UTF-8"?> 4.0.0 <groupId>my.elasticsearch
原创 Yarn的基本概念
1.Hadoop1.0與Hadoop2.0結構: 2.Yarn (Yet Another Resource Negotiator)(Hadoop2.0) 基本信息: 1.Hadoop集羣的資源管理系統(ResourceMange
原创 spark 讀寫mysql
def main(args: Array[String]): Unit = { println("Program Start Running") val properties = new Propertie
原创 impala AuthorizationException: User 'root' does not have privileges to access
進入impala-shell 使用 invalidate metadata; 點贊 收藏 分享 文章舉報 Yuan_CSDF 發佈了36 篇原創文章 · 獲贊 5 ·
原创 python使用接口進行模型實時調用
from flask import Flask, jsonify app = Flask(__name__) app.config['JSON_AS_ASCII'] = False @app.route('/') def he
原创 phoenix創建表連接hbase
如圖,hbase已經存在表 TEST_YUAN 當創建表遇到表創建成功但是數據查詢不到 需要添加column_encoded_bytes=0 create table “TEST_YUAN”(“ROW” VARCHAR PRI
原创 spark將數據寫入phoenix
// log4j2 使用了全局異步打印日誌的方式,還需要引入disruptor的依賴 def main(args: Array[String]): Unit = { val spark = SparkSession
原创 Flink error: No implicits found for parameter evidence$2: TypeInformation[(String, String, String)]
Flink error: No implicits found for parameter evidence$2: TypeInformation[(String, String, String)] 需要引入包 import o
原创 Spark與HBase
1.使用Spark創建Hbase表,以及定義表屬性 object HBaseCreateTable { def main(args: Array[String]) { val TABLE_NAME = "test_yu
原创 spark ML的使用
val spark = SparkSession.builder().config(new SparkConf().setMaster("local[*]")).getOrCreate() val training =
原创 Neo4j圖數據庫
1.、數據導入 可以使用 LOAD CSV WITH HEADERS FROM “file:///Inventory.csv” AS row MERGE (s:Store {name: row.store}) WITH * MAT
原创 alluxio 集羣搭建
和HDFS相關的配置 cd /data/alluxio-1.7.0-hadoop-2.6/conf ln -s /etc/hadoop/conf/core-site.xml ln -s /etc/hadoop/conf/hdfs
原创 設置flink通信端口
export FLINK_SSH_OPTS="-p 10022"