輕鬆搞定RocketMQ入門 原

RocketMQ是一款分佈式、隊列模型的消息中間件,具有以下特點:

  1. 能夠保證嚴格的消息順序

  2. 提供豐富的消息拉取模式

  3. 高效的訂閱者水平擴展能力

  4. 實時的消息訂閱機制

  5. 億級消息堆積能力

RocketMQ網絡部署特

(1)NameServer是一個幾乎無狀態的節點,可集羣部署,節點之間無任何信息同步

(2)Broker部署相對複雜,Broker氛圍Master與Slave,一個Master可以對應多個Slaver,但是一個Slaver只能對應一個Master,Master與Slaver的對應關係通過指定相同的BrokerName,不同的BrokerId來定義,BrokerId爲0表示Master,非0表示Slaver。Master可以部署多個。每個Broker與NameServer集羣中的所有節點建立長連接,定時註冊Topic信息到所有的NameServer

(3)Producer與NameServer集羣中的其中一個節點(隨機選擇)建立長連接,定期從NameServer取Topic路由信息,並向提供Topic服務的Master建立長連接,且定時向Master發送心跳。Produce完全無狀態,可集羣部署

(4)Consumer與NameServer集羣中的其中一個節點(隨機選擇)建立長連接,定期從NameServer取Topic路由信息,並向提供Topic服務的Master、Slaver建立長連接,且定時向Master、Slaver發送心跳。Consumer即可從Master訂閱消息,也可以從Slave訂閱消息,訂閱規則由Broker配置決定

 

RocketMQ儲存特點

(1)零拷貝原理:Consumer消費消息過程,使用了零拷貝,零拷貝包括一下2中方式,RocketMQ使用第一種方式,因小塊數據傳輸的要求效果比sendfile方式好

a )使用mmap+write方式

優點:即使頻繁調用,使用小文件塊傳輸,效率也很高

缺點:不能很好的利用DMA方式,會比sendfile多消耗CPU資源,內存安全性控制複雜,需要避免JVM Crash問題

b)使用sendfile方式

優點:可以利用DMA方式,消耗CPU資源少,大塊文件傳輸效率高,無內存安全新問題

缺點:小塊文件效率低於mmap方式,只能是BIO方式傳輸,不能使用NIO

(2)數據存儲結構

RocketMQ關鍵特性

1.單機支持1W以上的持久化隊

(1)所有數據單獨儲存到commit Log ,完全順序寫,隨機讀

(2)對最終用戶展現的隊列實際只儲存消息在Commit Log 的位置信息,並且串行方式刷盤

這樣做的好處:

(1)隊列輕量化,單個隊列數據量非常少

(2)對磁盤的訪問串行話,避免磁盤競爭,不會因爲隊列增加導致IOWait增高

每個方案都有優缺點,他的缺點是:

(1)寫雖然是順序寫,但是讀卻變成了隨機讀

(2)讀一條消息,會先讀Consume Queue,再讀Commit Log,增加了開銷

(3)要保證Commit Log 與 Consume Queue完全的一致,增加了編程的複雜度

以上缺點如何客服:

(1)隨機讀,儘可能讓讀命中pagecache,減少IO操作,所以內存越大越好。如果系統中堆積的消息過多,讀數據要訪問硬盤會不會由於隨機讀導致系統性能急劇下降,答案是否定的。

a)訪問pagecache時,即使只訪問1K的消息,系統也會提前預讀出更多的數據,在下次讀時就可能命中pagecache

b)隨機訪問Commit Log 磁盤數據,系統IO調度算法設置爲NOOP方式,會在一定程度上將完全的隨機讀變成順序跳躍方式,而順序跳躍方式讀較完全的隨機讀性能高5倍

(2)由於Consume Queue存儲數量極少,而且順序讀,在pagecache的與讀取情況下,Consume Queue的讀性能與內存幾乎一直,即使堆積情況下。所以可以認爲Consume Queue完全不會阻礙讀性能

(3)Commit Log中存儲了所有的元信息,包含消息體,類似於MySQl、Oracle的redolog,所以只要有Commit Log存在, Consume Queue即使丟失數據,仍可以恢復出來

2.刷盤策略

rocketmq中的所有消息都是持久化的,先寫入系統pagecache,然後刷盤,可以保證內存與磁盤都有一份數據,訪問時,可以直接從內存讀取

2.1異步刷盤

在有 RAID 卡, SAS 15000 轉磁盤測試順序寫文件,速度可以達到 300M 每秒左右,而線上的網卡一般都爲千兆網卡,寫磁盤速度明顯快於數據網絡入口速度,那麼是否可以做到寫完 內存就向用戶返回,由後臺線程刷盤呢?

(1). 由於磁盤速度大於網卡速度,那麼刷盤的進度肯定可以跟上消息的寫入速度。

(2). 萬一由於此時系統壓力過大,可能堆積消息,除了寫入 IO,還有讀取 IO,萬一出現磁盤讀取落後情況,會不會導致系統內存溢出,答案是否定的,原因如下:

a) 寫入消息到 PAGECACHE 時,如果內存不足,則嘗試丟棄乾淨的 PAGE,騰出內存供新消息使用,策略是 LRU 方式。

b) 如果幹淨頁不足,此時寫入 PAGECACHE 會被阻塞,系統嘗試刷盤部分數據,大約每次嘗試 32 個 PAGE,來找出更多幹淨 PAGE。
綜上,內存溢出的情況不會出現

2.2同步刷盤:

同步刷盤與異步刷盤的唯一區別是異步刷盤寫完 PAGECACHE 直接返回,而同步刷盤需要等待刷盤完成才返回,同步刷盤流程如下:

(1)寫入 PAGECACHE 後,線程等待,通知刷盤線程刷盤。

(2)刷盤線程刷盤後,喚醒前端等待線程,可能是一批線程。

(3)前端等待線程向用戶返回成功。

3.消息查詢

3.1按照MessageId查詢消息

MsgId總共16個字節,包含消息儲存主機地址,消息Commit Log Offset。從MsgId中解析出Broker的地址和Commit Log 偏移地址,然後按照存儲格式所在位置消息buffer解析成一個完整消息

3.2按照Message Key查詢消息

1.根據查詢的key的hashcode%slotNum得到具體的槽位置 (slotNum是一個索引文件裏面包含的最大槽目數目,例如圖中所示slotNum=500W)

2.根據slotValue(slot對應位置的值)查找到索引項列表的最後一項(倒序排列,slotValue總是指向最新的一個索引項)

3.遍歷索引項列表返回查詢時間範圍內的結果集(默認一次最大返回的32條記錄)

4.Hash衝突,尋找key的slot位置時相當於執行了兩次散列函數,一次key的hash,一次key的hash取值模,因此這裏存在兩次衝突的情況;第一種,key的hash值不同但模數相同,此時查詢的時候會在比較第一次key的hash值(每個索引項保存了key的hash值),過濾掉hash值不想等的情況。第二種,hash值相等key不想等,出於性能的考慮衝突的檢測放到客戶端處理(key的原始值是存儲在消息文件中的,避免對數據文件的解析),客戶端比較一次消息體的key是否相同

5.存儲,爲了節省空間索引項中存儲的時間是時間差值(存儲時間——開始時間,開始時間存儲在索引文件頭中),整個索引文件是定長的,結構也是固定的

4.服務器消息過濾

RocketMQ的消息過濾方式有別於其他的消息中間件,是在訂閱時,再做過濾,先來看下Consume Queue存儲結構

1.在Broker端進行Message Tag比較,先遍歷Consume Queue,如果存儲的Message Tag與訂閱的Message Tag不符合,則跳過,繼續比對下一個,符合則傳輸給Consumer。注意Message Tag是字符串形式,Consume Queue中存儲的是其對應的hashcode,比對時也是比對hashcode

2.Consumer收到過濾消息後,同樣也要執行在broker端的操作,但是比對的是真實的Message Tag字符串,而不是hashcode

爲什麼過濾要這麼做?

1.Message Tag存儲hashcode,是爲了在Consume Queue定長方式存儲,節約空間

2.過濾過程中不會訪問Commit Log 數據,可以保證堆積情況下也能高效過濾

3.即使存在hash衝突,也可以在Consumer端進行修正,保證萬無一失

5.單個JVM進程也能利用機器超大內存

1.Producer發送消息,消息從socket進入java 堆

2.Producer發送消息,消息從java堆進入pagecache,物理內存

3.Producer發送消息,由異步線程刷盤,消息從pagecache刷入磁盤

4.Consumer拉消息(正常消費),消息直接從pagecache(數據在物理內存)轉入socket,到達Consumer,不經過java堆。這種消費場景最多,線上96G物理內存,按照1K消息算,可以物理緩存1億條消息

5.Consumer拉消息(異常消費),消息直接從pagecache轉入socket

6.Consumer拉消息(異常消費),由於socket訪問了虛擬內存,產生缺頁中斷,此時會產生磁盤IO,從磁盤Load消息到pagecache,然後直接從socket發出去

7.同5

8.同6

6.消息堆積問題解決辦法

1 消息的堆積容量、依賴磁盤大小

2 發消息的吞吐量大小受影響程度、無Slave情況,會受一定影響、有Slave情況,不受影響

3 正常消費的Consumer是否會受影響、無Slave情況,會受一定影響、有Slave情況,不受影響

4 訪問堆積在磁盤的消息時,吞吐量有多大、與訪問的併發有關,最終會降到5000左右

在有Slave情況下,Master一旦發現Consumer訪問堆積在磁盤的數據時,回想Consumer下達一個重定向指令,令Consumer從Slave拉取數據,這樣正常的發消息與正常的消費不會因爲堆積受影響,因爲系統將堆積場景與非堆積場景分割在了兩個不同的節點處理。這裏會產生一個問題,Slave會不會寫性能下降,答案是否定的。因爲Slave的消息寫入只追求吞吐量,不追求實時性,只要整體的吞吐量高就行了,而Slave每次都是從Master拉取一批數據,如1M,這種批量順序寫入方式使堆積情況,整體吞吐量影響相對較小,只是寫入RT會變長。

服務端安裝部署

我是在虛擬機中的CentOS6.5中進行部署。

1.下載程序

2.tar -xvf alibaba-rocketmq-3.0.7.tar.gz 解壓到適當的目錄如/opt/目錄

3.啓動RocketMQ:進入rocketmq/bin 目錄 執行

nohup sh mqnamesrv &

4.啓動Broker,設置對應的NameServer

 

nohup sh  mqbroker -n "127.0.0.1:9876" &

編寫客戶端

可以查看sameple中的quickstart源碼 1.Consumer 消息消費者

/**
 * Consumer,訂閱消息
 */
public class Consumer {
 
    public static void main(String[] args) throws InterruptedException, MQClientException {
        DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("QuickStartConsumer");
         
        consumer.setNamesrvAddr("127.0.0.1:9876");
        consumer.setInstanceName("QuickStartConsumer");
        consumer.subscribe("QuickStart", "*");
         
        consumer.registerMessageListener(new MessageListenerConcurrently() {
 
            @Override
            public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
                    ConsumeConcurrentlyContext context) {
                System.out.println(Thread.currentThread().getName() + " Receive New Messages: " + msgs);
                return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
            }
        });
 
        consumer.start();
 
        System.out.println("Consumer Started.");
    }
}

2.Producer消息生產者

 

/**
 * Producer,發送消息
 *
 */
public class Producer {
    public static void main(String[] args) throws MQClientException, InterruptedException {
        DefaultMQProducer producer = new DefaultMQProducer("QuickStartProducer");
        producer.setNamesrvAddr("127.0.0.1:9876");
        producer.setInstanceName("QuickStartProducer");
        producer.start();
  
        for (int i = 0; i < 1000; i++) {
            try {
                Message msg = new Message("QuickStart",// topic
                    "TagA",// tag
                    ("Hello RocketMQ ,QuickStart" + i).getBytes()// body
                        );
                SendResult sendResult = producer.send(msg);
                System.out.println(sendResult);
            }
            catch (Exception e) {
                e.printStackTrace();
                Thread.sleep(1000);
            }
        }
  
        producer.shutdown();
    }
}

3.首先運行Consumer程序,一直在運行狀態接收服務器端推送過來的消息

23:18:07.587 [main] DEBUG i.n.c.MultithreadEventLoopGroup - -Dio.netty.eventLoopThreads: 16
23:18:07.591 [main] DEBUG i.n.util.internal.PlatformDependent - Platform: Windows
23:18:07.592 [main] DEBUG i.n.util.internal.PlatformDependent - Java version: 7
23:18:07.592 [main] DEBUG i.n.util.internal.PlatformDependent - -Dio.netty.noUnsafe: false
23:18:07.593 [main] DEBUG i.n.util.internal.PlatformDependent0 - java.nio.ByteBuffer.cleaner: available
23:18:07.593 [main] DEBUG i.n.util.internal.PlatformDependent0 - java.nio.Buffer.address: available
23:18:07.593 [main] DEBUG i.n.util.internal.PlatformDependent0 - sun.misc.Unsafe.theUnsafe: available
23:18:07.593 [main] DEBUG i.n.util.internal.PlatformDependent0 - sun.misc.Unsafe.copyMemory: available
23:18:07.593 [main] DEBUG i.n.util.internal.PlatformDependent0 - java.nio.Bits.unaligned: true
23:18:07.594 [main] DEBUG i.n.util.internal.PlatformDependent - sun.misc.Unsafe: available
23:18:07.594 [main] DEBUG i.n.util.internal.PlatformDependent - -Dio.netty.noJavassist: false
23:18:07.594 [main] DEBUG i.n.util.internal.PlatformDependent - Javassist: unavailable
23:18:07.594 [main] DEBUG i.n.util.internal.PlatformDependent - 
You don't have Javassist in your class path or you don't have enough permission to load dynamically generated classes.  
Please check the configuration for better performance.
23:18:07.595 [main] DEBUG i.n.util.internal.PlatformDependent - -Dio.netty.noPreferDirect: false
23:18:07.611 [main] DEBUG io.netty.channel.nio.NioEventLoop - -Dio.netty.noKeySetOptimization: false
23:18:07.611 [main] DEBUG io.netty.channel.nio.NioEventLoop - -Dio.netty.selectorAutoRebuildThreshold: 512
23:18:08.355 [main] DEBUG i.n.util.internal.ThreadLocalRandom - -Dio.netty.initialSeedUniquifier: 0x8c0d4793e5820c31
23:18:08.446 [NettyClientWorkerThread_1] DEBUG io.netty.util.ResourceLeakDetector 
- -Dio.netty.noResourceLeakDetection: false
Consumer Started.

 

4.再次運行Producer程序,生成消息併發送到Broker,Producer的日誌衝沒了,但是可以看到Broker推送到Consumer的一條消息

ConsumeMessageThread-QuickStartConsumer-3 Receive New Messages: [MessageExt [queueId=0, storeSize=150, 
queueOffset=244, sysFlag=0, bornTimestamp=1400772029972, bornHost=/10.162.0.7:54234, 
storeTimestamp=1400772016017, storeHost=/127.0.0.1:10911, msgId=0A0A0A5900002A9F0000000000063257, 
commitLogOffset=406103, bodyCRC=112549959, reconsumeTimes=0, preparedTransactionOffset=0,
 toString()=Message [topic=QuickStart, flag=0, 
properties={TAGS=TagA, WAIT=true, MAX_OFFSET=245, MIN_OFFSET=0}, body=29]]]

Consumer最佳實踐

1.消費過程要做到冪等(即消費端去重)

RocketMQ無法做到消息重複,所以如果業務對消息重複非常敏感,務必要在業務層面去重,有以下一些方式:

(1).將消息的唯一鍵,可以是MsgId,也可以是消息內容中的唯一標識字段,例如訂單ID,消費之前判斷是否在DB或Tair(全局KV存儲)中存在,如果不存在則插入,並消費,否則跳過。(實踐過程要考慮原子性問題,判斷是否存在可以嘗試插入,如果報主鍵衝突,則插入失敗,直接跳過) msgid一定是全局唯一的標識符,但是可能會存在同樣的消息有兩個不同的msgid的情況(有多種原因),這種情況可能會使業務上重複,建議最好使用消息體中的唯一標識字段去重

(2).使業務層面的狀態機去重

2.批量方式消費

如果業務流程支持批量方式消費,則可以很大程度上的提高吞吐量,可以通過設置Consumer的consumerMessageBatchMaxSize參數,默認是1,即一次消費一條參數

3.跳過非重要的消息

發生消息堆積時,如果消費速度一直跟不上發送速度,可以選擇丟棄不重要的消息

@Override
           public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
                   ConsumeConcurrentlyContext context) {
               System.out.println(Thread.currentThread().getName() + " Receive New Messages: " + msgs);
                
               long offset=msgs.get(0).getQueueOffset();
                
               String maxOffset=msgs.get(0).getProperty(MessageConst.PROPERTY_MAX_OFFSET);
               long diff=Long.parseLong(maxOffset)-offset;
               if(diff>100000){
                   //處理消息堆積情況
                   return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
               }
                
               return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
           }

如以上代碼所示,當某個隊列的消息數堆積到 100000 條以上,則嘗試丟棄部分或全部消息,這樣就可以快速追上發送消息的速度

4.優化沒條消息消費過程

舉例如下,某條消息的消費過程如下

1. 根據消息從 DB 查詢數據 1

2. 根據消息從 DB 查詢數據2

3. 複雜的業務計算

4. 向 DB 插入數據3

5. 向 DB 插入數據 4

這條消息的消費過程與 DB 交互了 4 次,如果按照每次 5ms 計算,那麼總共耗時 20ms,假設業務計算耗時 5ms,那麼總過耗時 25ms,如果能把 4 次 DB 交互優化爲 2 次,那麼總耗時就可以優化到 15ms,也就是說總體性能提高了 40%。

對於 Mysql 等 DB,如果部署在磁盤,那麼與 DB 進行交互,如果數據沒有命中 cache,每次交互的 RT 會直線上升, 如果採用 SSD,則 RT 上升趨勢要明顯好於磁盤。

個別應用可能會遇到這種情況:在線下壓測消費過程中,db 表現非常好,每次 RT 都很短,但是上線運行一段時間,RT 就會變長,消費吞吐量直線下降

主要原因是線下壓測時間過短,線上運行一段時間後,cache 命中率下降,那麼 RT 就會增加。建議在線下壓測時,要測試足夠長時間,儘可能模擬線上環境,壓測過程中,數據的分佈也很重要,數據不同,可能 cache 的命中率也會完全不同

Producer最佳實踐

1.發送消息注意事項

(1) 一個應用儘可能用一個 Topic,消息子類型用 tags 來標識,tags 可以由應用自由設置。只有發送消息設置了tags,消費方在訂閱消息時,纔可以利用 tags 在 broker 做消息過濾。

(2)每個消息在業務層面的唯一標識碼,要設置到 keys 字段,方便將來定位消息丟失問題。服務器會爲每個消息創建索引(哈希索引),應用可以通過 topic,key 來查詢這條消息內容,以及消息被誰消費。由於是哈希索引,請務必保證 key 儘可能唯一,這樣可以避免潛在的哈希衝突。

(3)消息發送成功或者失敗,要打印消息日誌,務必要打印 sendresult 和 key 字段

(4)send 消息方法,只要不拋異常,就代表發送成功。但是發送成功會有多個狀態,在 sendResult 裏定義

SEND_OK:消息發送成功

FLUSH_DISK_TIMEOUT:消息發送成功,但是服務器刷盤超時,消息已經進入服務器隊列,只有此時服務器宕機,消息纔會丟失

FLUSH_SLAVE_TIMEOUT:消息發送成功,但是服務器同步到 Slave 時超時,消息已經進入服務器隊列,只有此時服務器宕機,消息纔會丟失

SLAVE_NOT_AVAILABLE:消息發送成功,但是此時 slave 不可用,消息已經進入服務器隊列,只有此時服務器宕機,消息纔會丟失。對於精確發送順序消息的應用,由於順序消息的侷限性,可能會涉及到主備自動切換問題,所以如果sendresult 中的 status 字段不等於 SEND_OK,就應該嘗試重試。對於其他應用,則沒有必要這樣

(5)對於消息不可丟失應用,務必要有消息重發機制

2.消息發送失敗處理

Producer 的 send 方法本身支持內部重試,重試邏輯如下:

(1) 至多重試 3 次

(2) 如果發送失敗,則輪轉到下一個 Broker

(3) 這個方法的總耗時時間不超過 sendMsgTimeout 設置的值,默認 10s所以,如果本身向 broker 發送消息產生超時異常,就不會再做重試

如:

如果調用 send 同步方法發送失敗,則嘗試將消息存儲到 db,由後臺線程定時重試,保證消息一定到達 Broker。

上述 db 重試方式爲什麼沒有集成到 MQ 客戶端內部做,而是要求應用自己去完成,基於以下幾點考慮:

(1)MQ 的客戶端設計爲無狀態模式,方便任意的水平擴展,且對機器資源的消耗僅僅是 cpu、內存、網絡

(2)如果 MQ 客戶端內部集成一個 KV 存儲模塊,那麼數據只有同步落盤才能較可靠,而同步落盤本身性能開銷較大,所以通常會採用異步落盤,又由於應用關閉過程不受 MQ 運維人員控制,可能經常會發生 kill -9 這樣暴力方式關閉,造成數據沒有及時落盤而丟失

(3)Producer 所在機器的可靠性較低,一般爲虛擬機,不適合存儲重要數據。 綜上,建議重試過程交由應用來控制。

3.選擇 oneway 形式發送

一個 RPC 調用,通常是這樣一個過程

(1)客戶端發送請求到服務器

(2)服務器處理該請求

(3)服務器向客戶端返回應答

所以一個 RPC 的耗時時間是上述三個步驟的總和,而某些場景要求耗時非常短,但是對可靠性要求並不高,例如日誌收集類應用,此類應用可以採用 oneway 形式調用,oneway 形式只發送請求不等待應答,而發送請求在客戶端實現層面僅僅是一個 os 系統調用的開銷,即將數據寫入客戶端的 socket 緩衝區,此過程耗時通常在微秒級。

RocketMQ不止可以直接推送消息,在消費端註冊監聽器進行監聽,還可以由消費端決定自己去拉取數據

/**
 * PullConsumer,訂閱消息
 */
public class PullConsumer {
    //Java緩存
    private static final Map<MessageQueue, Long> offseTable = new HashMap<MessageQueue, Long>();
 
 
    public static void main(String[] args) throws MQClientException {
        DefaultMQPullConsumer consumer = new DefaultMQPullConsumer("PullConsumerGroup");
        consumer.setNamesrvAddr("127.0.0.1:9876");
        consumer.start();
                //拉取訂閱主題的隊列,默認隊列大小是4
        Set<MessageQueue> mqs = consumer.fetchSubscribeMessageQueues("TopicTestMapBody");
        for (MessageQueue mq : mqs) {
            System.out.println("Consume from the queue: " + mq);
            SINGLE_MQ:while(true){
                try {
                     
                    PullResult pullResult =
                            consumer.pullBlockIfNotFound(mq, null, getMessageQueueOffset(mq), 32);
                    List<MessageExt> list=pullResult.getMsgFoundList();
                    if(list!=null&&list.size()<100){
                        for(MessageExt msg:list){
                            System.out.println(SerializableInterface.deserialize(msg.getBody()));
                        }
                    }
                    System.out.println(pullResult.getNextBeginOffset());
                    putMessageQueueOffset(mq, pullResult.getNextBeginOffset());
                    
                    switch (pullResult.getPullStatus()) {
                    case FOUND:
                        // TODO
                        break;
                    case NO_MATCHED_MSG:
                        break;
                    case NO_NEW_MSG:
                        break SINGLE_MQ;
                    case OFFSET_ILLEGAL:
                        break;
                    default:
                        break;
                    }
                }
                catch (Exception e) {
                    e.printStackTrace();
                }
             }
        }
 
        consumer.shutdown();
    }
 
 
    private static void putMessageQueueOffset(MessageQueue mq, long offset) {
        offseTable.put(mq, offset);
    }
 
 
    private static long getMessageQueueOffset(MessageQueue mq) {
        Long offset = offseTable.get(mq);
        if (offset != null){
            System.out.println(offset);
            return offset;
        }
        return 0;
    }

剛開始的沒有細看PullResult對象,以爲拉取到的結果沒有MessageExt對象還跑到羣裏面問別人,犯2了

特別要注意 靜態變量offsetTable的作用,拉取的是按照從offset(理解爲下標)位置開始拉取,拉取N條,offsetTable記錄下次拉取的offset位置。

 

文章有點長,大家覺得作者總結的還可以,大家可以點擊下方二維碼進行關注。《Java爛豬皮》公衆號聊的不僅僅是Java技術知識,還有面試等乾貨,後期還有大量架構乾貨。大家一起關注吧!關注爛豬皮,你會了解的更多..............

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章