Kafka負載均衡、Kafka自定義Partition、Kafk文件存儲機制

1、Kafka整體結構圖

Kafka名詞解釋和工作方式

 

l Producer :消息生產者,就是向kafkabroker發消息的客戶端。

l Consumer :消息消費者,向kafkabroker取消息的客戶端

l Topic :咋們可以理解爲一個隊列。

l Consumer Group (CG):這是kafka用來實現一個topic消息的廣播(發給所有的consumer)和單播(發給任意一個consumer)的手段。一個topic可以有多個CG。topic的消息會複製(不是真的複製,是概念上的)到所有的CG,但每個partion只會把消息發給該CG中的一個consumer。如果需要實現廣播,只要每個consumer有一個獨立的CG就可以了。要實現單播只要所有的consumer在同一個CG。用CG還可以將consumer進行自由的分組而不需要多次發送消息到不同的topic。

l Broker :一臺kafka服務器就是一個broker。一個集羣由多個broker組成。一個broker可以容納多個topic。

l Partition:爲了實現擴展性,一個非常大的topic可以分佈到多個broker(即服務器)上,一個topic可以分爲多個partition,每個partition是一個有序的隊列。partition中的每條消息都會被分配一個有序的id(offset)。kafka只保證按一個partition中的順序將消息發給consumer,不保證一個topic的整體(多個partition間)的順序。

l Offset:kafka的存儲文件都是按照offset.kafka來命名,用offset做名字的好處是方便查找。例如你想找位於2049的位置,只要找到2048.kafka的文件即可。當然the first offset就是00000000000.kafka

2、Consumer與topic關係

本質上kafka只支持Topic;

l 每個group中可以有多個consumer,每個consumer屬於一個consumer group;

通常情況下,一個group中會包含多個consumer,這樣不僅可以提高topic中消息的併發消費能力,而且還能提高"故障容錯"性,如果group中的某個consumer失效那麼其消費的partitions將會有其他consumer自動接管。

l 對於Topic中的一條特定的消息,只會被訂閱此Topic的每個group中的其中一個consumer消費,此消息不會發送給一個group的多個consumer;

那麼一個group中所有的consumer將會交錯的消費整個Topic,每個group中consumer消息消費互相獨立,我們可以認爲一個group是一個"訂閱"者。

l 在kafka中,一個partition中的消息只會被group中的一個consumer消費(同一時刻)

一個Topic中的每個partions,只會被一個"訂閱者"中的一個consumer消費,不過一個consumer可以同時消費多個partitions中的消息。

l kafka的設計原理決定,對於一個topic,同一個group中不能有多於partitions個數的consumer同時消費,否則將意味着某些consumer將無法得到消息。

kafka只能保證一個partition中的消息被某個consumer消費時是順序的;事實上,從Topic角度來說,當有多個partitions,消息仍不是全局有序的。

3、Kafka消息的分發

         Producer客戶端負責消息的分發

l kafka集羣中的任何一個broker都可以向producer提供metadata信息,這些metadata中包含"集羣中存活的servers列表"/"partitionsleader列表"等信息;

l 當producer獲取到metadata信息之後, producer將會和Topic下所有partition leader保持socket連接;

l 消息由producer直接通過socket發送到broker,中間不會經過任何"路由層",事實上,消息被路由到哪個partition上由producer客戶端決定;

比如可以採用"random""key-hash""輪詢"等,如果一個topic中有多個partitions,那麼在producer端實現"消息均衡分發"是必要的。

l 在producer端的配置文件中,開發者可以指定partition路由的方式。

 

Producer消息發送的應答機制

設置發送數據是否需要服務端的反饋,有三個值0,1,-1

0: producer不會等待broker發送ack

1: 當leader接收到消息之後發送ack

-1: 當所有的follower都同步消息成功後發送ack

         request.required.acks=0

4Consumer的負載均衡

當一個group中,有consumer加入或者離開時,會觸發partitions均衡.均衡的最終目的,是提升topic的併發消費能力,步驟如下:

1、   假如topic1,具有如下partitions: P0,P1,P2,P3

2、   加入group中,有如下consumer: C1,C2

3、   首先根據partition索引號對partitions排序: P0,P1,P2,P3

4、   根據consumer.id排序: C0,C1

5、   計算倍數: M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整)

6、   然後依次分配partitions: C0 = [P0,P1],C1=[P2,P3],即Ci = [P(i *M),P((i + 1) * M -1)]

5kafka文件存儲機制

5.1、Kafka文件存儲基本結構

l 在Kafka文件存儲中,同一個topic下有多個不同partition,每個partition爲一個目錄,partiton命名規則爲topic名稱+有序序號,第一個partiton序號從0開始,序號最大值爲partitions數量減1。

l 每個partion(目錄)相當於一個巨型文件被平均分配到多個大小相等segment(段)數據文件中。但每個段segmentfile消息數量不一定相等,這種特性方便oldsegment file快速被刪除。默認保留7天的數據。

l 每個partiton只需要支持順序讀寫就行了,segment文件生命週期由服務端配置參數決定。(什麼時候創建,什麼時候刪除)

數據有序的討論?

         一個partition的數據是否是有序的?          間隔性有序,不連續

         針對一個topic裏面的數據,只能做到partition內部有序,不能做到全局有序。

         特別加入消費者的場景後,如何保證消費者消費的數據全局有序的?僞命題。

 

只有一種情況下才能保證全局有序?就是隻有一個partition。

5.2、Kafka Partition Segment

Segmentfile組成:由2大部分組成,分別爲index file和data file,此2個文件一一對應,成對出現,後綴".index"和“.log”分別表示爲segment索引文件、數據文件。


Segment文件命名規則:partion全局的第一個segment從0開始,後續每個segment文件名爲上一個segment文件最後一條消息的offset值。數值最大爲64位long大小,19位數字字符長度,沒有數字用0填充。

索引文件存儲大量元數據,數據文件存儲大量消息,索引文件中元數據指向對應數據文件中message的物理偏移地址。


3,497:當前log文件中的第幾條信息,存放在磁盤上的那個地方

 

上述圖中索引文件存儲大量元數據,數據文件存儲大量消息,索引文件中元數據指向對應數據文件中message的物理偏移地址。

其中以索引文件中元數據3,497爲例,依次在數據文件中表示第3個message(在全局partiton表示第368772個message)、以及該消息的物理偏移地址爲497。

 

segment data file由許多message組成, qq物理結構如下:

關鍵字

解釋說明

8 byte offset

在parition(分區)內的每條消息都有一個有序的id號,這個id號被稱爲偏移(offset),它可以唯一確定每條消息在parition(分區)內的位置。即offset表示partiion的第多少message

4 byte message size

message大小

4 byte CRC32

用crc32校驗message

1 byte “magic"

表示本次發佈Kafka服務程序協議版本號

1 byte “attributes"

表示爲獨立版本、或標識壓縮類型、或編碼類型。

4 byte key length

表示key的長度,當key爲-1時,K byte key字段不填

K byte key

可選

value bytes payload

表示實際消息數據。

 

 

5.3、Kafka 查找message

讀取offset=368776的message,需要通過下面2個步驟查找。

        

5.3.1、查找segment file

00000000000000000000.index表示最開始的文件,起始偏移量(offset)爲0

00000000000000368769.index的消息量起始偏移量爲368770= 368769 + 1

00000000000000737337.index的起始偏移量爲737338=737337+ 1

其他後續文件依次類推。

以起始偏移量命名並排序這些文件,只要根據offset**二分查找**文件列表,就可以快速定位到具體文件。當offset=368776時定位到00000000000000368769.index和對應log文件。

5.3.2、通過segment file查找message      

當offset=368776時,依次定位到00000000000000368769.index的元數據物理位置和00000000000000368769.log的物理偏移地址

然後再通過00000000000000368769.log順序查找直到offset=368776爲止。

6Kafka自定義Partition

  

package cn.itcast;

import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;

import java.util.Properties;


public class MyKafkaProducer {
    public static void main(String[] args) {
        Properties properties = new Properties();
        properties.put("metadata.broker.list","mini1:9092");

        // 默認的序列化爲byte改爲string
        properties.put("serializer.class","kafka.serializer.StringEncoder");
        /**
         * 自定義parition的基本步驟
         * 1、實現partition類
         * 2、加一個構造器,MyPartitioner(VerifiableProperties properties)
         * 3、將自定義的parititoner加入到properties中
         *    properties.put("partitioner.class","cn.itcast.MyPartitioner")
         * 4、producer.send方法中必須指定一個paritionKey
         */
        properties.put("partitioner.class","cn.itcast.MyPartitioner");
        Producer producer = new Producer(new ProducerConfig(properties));
        while (true){
            producer.send(new KeyedMessage("order4","zhang","我愛我的祖國"));
//            producer.send(new KeyedMessage("order","我愛我的祖國"));
        }
    }
}
package cn.itcast;

import kafka.producer.Partitioner;
import kafka.utils.VerifiableProperties;

/**
 * http://www.cnblogs.com/wxd0108/p/6519973.html
 */
public class MyPartitioner implements Partitioner {
    public MyPartitioner(VerifiableProperties properties) {
    }
    public int partition(Object key, int numPartitions) {
        return 2;
    }
}



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章