原创 零次拷貝學習
四次拷貝 mmap拷貝 sendfile 零拷貝技術都是減少數據在用戶空間和內核空間拷貝技術實現的,但是有些時候,數據必須在用戶空間和內核空間之間拷貝。這時候,我們只能針對數據在用戶空間和內核空間拷貝的時機上下功夫了。Lin
原创 flink state 理解
兩種state:operatorState keyedState 1.operatorState只提供了ListState 2.keyedState提供了ValueState,ListState,ReducingState,Ma
原创 flink ddl kafka mysql
需要的jar <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-sql-connector-
原创 percona-release安裝
yum install http://www.percona.com/downloads/percona-release/redhat/0.1-4/percona-release-0.1-4.noarch.rpm yum inst
原创 flink提交job
yarn提交 ./bin/flink run -m yarn-cluster -yn 2 -c com.flink.kafka.KafkaProducer /usr/local/flinkLearn/target/demo-0.0
原创 flink 窗口類型 時間類型
窗口類型 數據窗口:當數據量到達一定程序觸發 時間窗口:滑動,滾動, session窗口:用戶會話窗口 自定義窗口 時間類型 processing time:數據被系統處理時間 event time:事件真實時間 ingestio
原创 CDH kafka 操作
kafka-topics --create --zookeeper master:2181 --replication-factor 1 --partitions 6 --topic TP_LABEL kafka-topics
原创 flink etl join
Regular Join 允許對輸入表進行任意種類的更新操作(insert、update、delete)。然而因爲資源問題 Regular Join 通常是不可持續的,一般只用做有界數據流的 Join
原创 mariadb columnstore1.2.5 安裝
centos7 yum -y install boost yum groupinstall "Development Tools" yum install cmake yum -y install expect perl perl
原创 kerberos kafka 問題解決
修改 kafka界面 security.inter.broker.protocol SASL_PLAINTEXT 登錄添加用戶生成keytab kadmin.local add_principal flink/master@AQ
原创 flink sql 轉換
將 SQL文本 / TableAPI 代碼轉化爲邏輯執行計劃(Logical Plan) Logical Plan 通過優化器優化爲物理執行計劃(Physical Plan) 通過代碼生成技術生成 Transformations
原创 flink udf 介紹
ScalarFunction:標量函數是實現將0,1,或者多個標量值轉化爲一個新值 TableFunction:一個輸入多個行或者多個列 AggregateFunction:多個輸入一個輸出 package org.fu
原创 cdh kerberos 安裝
重建數據庫:kdb5_util -r AQ.COM destroy 建數據庫:kdb5_util create -r AQ.COM –s master 安裝 yum install krb5-server krb5-worksta
原创 flink水印的產生方式
AssignerWithPunctuatedWatermarks:每一個event到來的時候,就會提取一次Watermark AssignerWithPeriodicWatermarks: 可以定義一個最大允許亂序的時間, 生成水
原创 flink kerberos
security.kerberos.login.keytab: /usr/local/keytab/flink/flink.keytab security.kerberos.login.principal: flink/maste