Kafka 基本使用

1、Kafka是什麼

l Apache Kafka是一個開源消息系統,由Scala寫成。是由Apache軟件基金會開發的一個開源消息系統項目。

l Kafka最初是由LinkedIn開發,並於2011年初開源。2012年10月從ApacheIncubator畢業。該項目的目標是爲處理實時數據提供一個統一、高通量、低等待的平臺。

Kafka是一個分佈式消息隊列:生產者、消費者的功能。它提供了類似於JMS的特性,但是在設計實現上完全不同,此外它並不是JMS規範的實現

l Kafka對消息保存時根據Topic進行歸類,發送消息者稱爲Producer,消息接受者稱爲Consumer,此外kafka集羣有多個kafka實例組成,每個實例(server)成爲broker

l 無論是kafka集羣,還是producer和consumer都依賴於zookeeper集羣保存一些meta信息,來保證系統可用性

2、JMS是什麼

2.1、JMS的基礎

         JMS是什麼:JMS是Java提供的一套技術規範

JMS幹什麼用:用來異構系統 集成通信,緩解系統瓶頸,提高系統的伸縮性增強系統用戶體驗,使得系統模塊化和組件化變得可行並更加靈活

通過什麼方式:生產消費者模式(生產者、服務器、消費者)

jdk,kafka,activemq……

2.2、JMS消息傳輸模型

l 點對點模式(一對一,消費者主動拉取數據,消息收到後消息清除)

點對點模型通常是一個基於拉取或者輪詢的消息傳送模型,這種模型從隊列中請求信息,而不是將消息推送到客戶端。這個模型的特點是發送到隊列的消息被一個且只有一個接收者接收處理,即使有多個消息監聽者也是如此。

l 發佈/訂閱模式(一對多,數據生產後,推送給所有訂閱者)

發佈訂閱模型則是一個基於推送的消息傳送模型。發佈訂閱模型可以有多種不同的訂閱者,臨時訂閱者只在主動監聽主題時才接收消息,而持久訂閱者則監聽主題的所有消息,即時當前訂閱者不可用,處於離線狀態

queue.put(object)  數據生產

queue.take(object)   數據消費

2.3、JMS核心組件

l Destination:消息發送的目的地,也就是前面說的Queue和Topic。

l  Message [m1] :從字面上就可以看出是被髮送的消息。

l Producer: 消息的生產者,要發送一個消息,必須通過這個生產者來發送。

l MessageConsumer: 與生產者相對應,這是消息的消費者或接收者,通過它來接收一個消息。

 

通過與ConnectionFactory可以獲得一個connection

通過connection可以獲得一個session會話。

 

2.4、常見的類JMS消息服務器

2.4.1、JMS消息服務器 ActiveMQ

ActiveMQ 是Apache出品,最流行的,能力強勁的開源消息總線。ActiveMQ 是一個完全支持JMS1.1和J2EE 1.4規範的。

主要特點:

l 多種語言和協議編寫客戶端。語言: Java, C, C++, C#, Ruby, Perl, Python, PHP。應用協議:OpenWire,Stomp REST,WS Notification,XMPP,AMQP

l 完全支持JMS1.1和J2EE 1.4規範 (持久化,XA消息,事務)

l 對Spring的支持,ActiveMQ可以很容易內嵌到使用Spring的系統裏面去,而且也支持Spring2.0的特性

l 通過了常見J2EE服務器(如 Geronimo,JBoss 4, GlassFish,WebLogic)的測試,其中通過JCA 1.5resource adaptors的配置,可以讓ActiveMQ可以自動的部署到任何兼容J2EE 1.4 商業服務器上

l 支持多種傳送協議:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA

l 支持通過JDBC和journal提供高速的消息持久化

l 從設計上保證了高性能的集羣,客戶端-服務器,點對點

l 支持Ajax

l 支持與Axis的整合

l 可以很容易得調用內嵌JMS provider,進行測試

2.4.2、分佈式消息中間件 Metamorphosis

Metamorphosis(MetaQ) 是一個高性能、高可用、可擴展的分佈式消息中間件,類似於LinkedIn的Kafka,具有消息存儲順序寫、吞吐量大和支持本地和XA事務等特性,適用於大吞吐量、順序消息、廣播和日誌數據傳輸等場景,在淘寶和支付寶有着廣泛的應用,現已開源。

主要特點:

l 生產者、服務器和消費者都可分佈

l 消息存儲順序寫

l 性能極高,吞吐量大

l 支持消息順序

l 支持本地和XA事務

l 客戶端pull,隨機讀,利用sendfile系統調用,zero-copy ,批量拉數據

l 支持消費端事務

l 支持消息廣播模式

l 支持異步發送消息

l 支持http協議

l 支持消息重試和recover

l 數據遷移、擴容對用戶透明

l 消費狀態保存在客戶端

l 支持同步和異步複製兩種HA

l 支持group commit

2.4.3、分佈式消息中間件 RocketMQ

RocketMQ 是一款分佈式、隊列模型的消息中間件,具有以下特點:

l 能夠保證嚴格的消息順序

l 提供豐富的消息拉取模式

l 高效的訂閱者水平擴展能力

l 實時的消息訂閱機制

l 億級消息堆積能力

Metaq3.0 版本改名,產品名稱改爲RocketMQ

2.4.4、其他MQ

l .NET消息中間件DotNetMQ

l 基於HBase的消息隊列 HQueue

l Go 的 MQ 框架 KiteQ

l AMQP消息服務器 RabbitMQ

l MemcacheQ 是一個基於MemcacheDB 的消息隊列服務器。

 

 

3、爲什麼需要消息隊列(重要)

消息系統的核心作用就是三點:解耦,異步和並行

以用戶註冊的案列來說明消息系統的作用

3.1、用戶註冊的一般流程

問題:隨着後端流程越來越多,每步流程都需要額外的耗費很多時間,從而會導致用戶更長的等待延遲。

3.2、用戶註冊的並行執行

問題:系統並行的發起了4個請求,4個請求中,如果某一個環節執行1分鐘,其他環節再快,用戶也需要等待1分鐘。如果其中一個環節異常之後,整個服務掛掉了。

3.3、用戶註冊的最終一致

1、  保證主流程的正常執行、執行成功之後,發送MQ消息出去。

2、  需要這個destination的其他系統通過消費數據再執行,最終一致。

4、Kafka核心組件

l Topic :消息根據Topic進行歸類

l Producer:發送消息者

l Consumer:消息接受者

l broker:每個kafka實例(server)

l Zookeeper:依賴集羣保存meta信息。

5、Kafka集羣部署

5.1集羣部署的基本流程

下載安裝包、解壓安裝包、修改配置文件、分發安裝包、啓動集羣

5.2集羣部署的基礎環境準備

安裝前的準備工作(zk集羣已經部署完畢)

l 關閉防火牆

chkconfig iptables off && setenforce 0

l 創建用戶

groupadd realtime && useradd realtime &&usermod -a -G realtime realtime

l 創建工作目錄並賦權

mkdir /export

mkdir /export/servers

chmod 755 -R /export

l 切換到realtime用戶下

su realtime

5.3 Kafka集羣部署

5.3.1、下載安裝包

http://kafka.apache.org/downloads.html

在linux中使用wget命令下載安裝包

        wgethttp://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz

5.3.2、解壓安裝包

tar -zxvf/export/software/kafka_2.11-0.8.2.2.tgz -C /export/servers/

cd/export/servers/

ln -skafka_2.11-0.8.2.2 kafka

5.3.3、修改配置文件

cp   /export/servers/kafka/config/server.properties

/export/servers/kafka/config/server.properties.bak

vi  /export/servers/kafka/config/server.properties

輸入以下內容:

5.3.4、分發安裝包

scp -r/export/servers/kafka_2.11-0.8.2.2 kafka02:/export/servers

然後分別在各機器上創建軟連

cd/export/servers/

ln -skafka_2.11-0.8.2.2 kafka

5.3.5、再次修改配置文件(重要)

依次修改各服務器上配置文件的的broker.id,分別是0,1,2不得重複。

5.3.6、啓動集羣

依次在各節點上啓動kafka

bin/kafka-server-start.sh config/server.properties

 

5.4、Kafka常用操作命令

l 查看當前服務器中的所有topic

bin/kafka-topics.sh --list --zookeeper  zk01:2181

l 創建topic

bin/kafka-topics.sh --create --zookeeper zk01:2181 --replication-factor1 --partitions 1 --topic test

l 刪除topic

sh bin/kafka-topics.sh --delete --zookeeper zk01:2181 --topic test

需要server.properties中設置delete.topic.enable=true否則只是標記刪除或者直接重啓。

l 通過shell命令發送消息

kafka-console-producer.sh --broker-list kafka01:9092 --topic itheima

l 通過shell消費消息

sh bin/kafka-console-consumer.sh --zookeeper zk01:2181--from-beginning --topic test1

l 查看消費位置

sh kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeperzk01:2181 --group testGroup

l 查看某個Topic的詳情

sh kafka-topics.sh --topic test --describe --zookeeper zk01:2181

l 對分區數進行修改

kafka-topics.sh --zookeeper  zk01 --alter --partitions 15 --topic   utopic

 

6、Kafka生產者Java API

7、Kafka消費者Java API


 



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章