偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

消費(fèi)者原理分析-RocketMQ知識體系(四)

開發(fā) 架構(gòu)
本文將講講消息消費(fèi)的過程及相關(guān)概念。關(guān)于消息消費(fèi),消費(fèi)者組這些概念,基本和kafka 是類似的,一個消費(fèi)組內(nèi)可以包含多個消費(fèi)者,1個消費(fèi)組可訂閱多個主題。消費(fèi)組之間有集群模式與廣播模式兩種。

[[410711]]

前文了解了 RocketMQ消息存儲的相關(guān)原理,本文將講講消息消費(fèi)的過程及相關(guān)概念。

消息消費(fèi)

關(guān)于消息消費(fèi),消費(fèi)者組這些概念,基本和kafka 是類似的,比如:

一個消費(fèi)組內(nèi)可以包含多個消費(fèi)者,1個消費(fèi)組可訂閱多個主題。消費(fèi)組之間有集群模式與廣播模式兩種。

集群模式下,主題下的同一消息只允許被消費(fèi)組內(nèi)的一個消費(fèi)者消費(fèi),消費(fèi)進(jìn)度存儲在 broker 端。廣播模式下,則每個消費(fèi)者都可以消費(fèi)該消息,消費(fèi)進(jìn)度存儲在消費(fèi)者端。

集群模式下,一個消費(fèi)隊(duì)列同一時間,只允許被一個消費(fèi)者消費(fèi),1個消費(fèi)者,可以消費(fèi)多個消息隊(duì)列。具體的可以看我前面的文章。

而且 rocketmq 消息服務(wù)器與消費(fèi)者的消息傳輸有 2 種方式:推模式、拉模式。拉模式,即消費(fèi)者主動向消息服務(wù)器發(fā)送請求;推模式,即消息服務(wù)器向消費(fèi)者推送消息。推模式,是基于拉模式實(shí)現(xiàn)的。

消費(fèi)者啟動

主要就是初始化了三個組件,然后啟動后臺定時任務(wù)。

三個組件:

  • 【RebalanceImpl】均衡消息隊(duì)列服務(wù),負(fù)責(zé)分配當(dāng)前 Consumer 可消費(fèi)的消息隊(duì)列( MessageQueue )。當(dāng)有新的 Consumer 的加入或移除,都會重新分配消息隊(duì)列。
  • 【PullAPIWrapper】拉取消息組件
  • 【offsetStore】消費(fèi)進(jìn)度組件

幾個定時任務(wù)

  • PullMessageService
  • 從阻塞隊(duì)列pullRequestQueue中獲取consumer的pull請求
  • RebalanceService
  • 負(fù)載均衡定時任務(wù),給 Consumer 分配可消費(fèi)的 MessageQueue
  • fetchNameServerAddr
  • 定時獲取 NameSever 地址
  • updateTopicRouteInfoFromNameServer
  • 定時更新Topic路由信息
  • cleanOfflineBroker
  • 定時清理下線Broker
  • sendHeartbeatToAllBrokerWithLock
  • 發(fā)送心跳
  • persistAllConsumerOffset
  • 持久化消費(fèi)進(jìn)度 ConsumerOffset

消息拉取

對于任何一款消息中間件而言,消費(fèi)者客戶端一般有兩種方式從消息中間件獲取消息并消費(fèi):

Pull

即消費(fèi)者每隔一定時間主動去 Broker 拉取消息

優(yōu)點(diǎn)

消費(fèi)速度、數(shù)量可控

缺點(diǎn)

如果間隔時間短,可能會拉空,并且頻繁 RPC 請求增加網(wǎng)絡(luò)開銷 如果間隔時間長,則可能會有消息延遲 消費(fèi)進(jìn)度offset需要consumer自己來維護(hù)

Push

即 Broker 主動實(shí)時推送消息給消費(fèi)者

優(yōu)點(diǎn)

消息實(shí)時,保持長鏈接,不會頻繁建立鏈接

缺點(diǎn)

如果消息數(shù)量過大,消費(fèi)者吞吐量小,肯能會造成消費(fèi)者緩沖區(qū)溢出。

在文章的開頭我們也說了RocketMQ推模式,是基于拉模式實(shí)現(xiàn)的。

【PullMessageService 消息拉取】

RocketMQ 通過 PullMessageService 拉取消息。

通過代碼段 PullMessageService#run可以看出:

  1. public void run() { 
  2.   // stopped 是 volidate 修飾的變量,用于線程間通信。 
  3.   while (!this.isStopped()) { 
  4.   // ..  
  5.       // 阻塞隊(duì)列, 如果 pullRequestQueue 沒有元素,則阻塞 
  6.       PullRequest pullRequest = this.pullRequestQueue.take(); 
  7.       // 消息拉取  
  8.       this.pullMessage(pullRequest); 
  9.    // ... 
  10.   } 

關(guān)于PullRequest

  1. // 消費(fèi)者組 
  2. private String consumerGroup; 
  3. // 消息隊(duì)列 
  4. private MessageQueue messageQueue; 
  5. // 消息處理隊(duì)列,從 Broker 拉取到的消息先存入 ProcessQueue,然后再提交到消費(fèi)者消費(fèi)池消費(fèi) 
  6. private ProcessQueue processQueue; 
  7. // 待拉取的 MessageQueue 偏移量 
  8. private long nextOffset; 
  9. // 是否被鎖定 
  10. private boolean lockedFirst = false

PullMessageService 添加 PullRequest 有兩種方式:

延時添加

立即添加

【關(guān)于ProcessQueue】

ProcessQueue 是 MessageQueue 在消費(fèi)端的重現(xiàn)、快照。PullMessageService 從消息服務(wù)器默認(rèn)每次拉取 32 條消息,按消息的隊(duì)列偏移量順序存放在 ProcessQueue 中,PullMessageService 再將消息提交到消費(fèi)者消費(fèi)線程池。消息消費(fèi)成功后,從 ProcessQueue 中移除。

  1. // 讀寫鎖 
  2. private final ReadWriteLock lockTreeMap = new ReentrantReadWriteLock(); 
  3. // 消息存儲容器, k:消息偏移量,v:消息實(shí)體 
  4. private final TreeMap<Long, MessageExt> msgTreeMap = new TreeMap<Long, MessageExt>(); 
  5. // ProcessQueue 中消息總數(shù) 
  6. private final AtomicLong msgCount = new AtomicLong(); 
  7. // ProcessQueue 中消息總大小 
  8. private final AtomicLong msgSize = new AtomicLong(); 
  9. // 當(dāng)前 ProcessQueue 中包含的最大隊(duì)列偏移量 
  10. private volatile long queueOffsetMax = 0L; 
  11. // 當(dāng)前 ProcessQueue 是否被丟棄 
  12. private volatile boolean dropped = false
  13. // 上一次開始消息拉取時間戳 
  14. private volatile long lastPullTimestamp = System.currentTimeMillis(); 
  15. // 上一次消息消費(fèi)時間戳 
  16. private volatile long lastConsumeTimestamp = System.currentTimeMillis(); 

【對消息拉取進(jìn)行流量控制】

processQueue 的消息數(shù)量 大于 1000, processQueue 的消息大小 大于 100 MB,將延遲 50 毫秒后拉取消息

processQueue 中偏移量最大的消息與偏移量最小的消息的跨度超過 2000 則延遲 50 毫秒再拉取消息。

根據(jù)主題拉取訂閱的消息,如果為空,延遲 3 秒,再拉取。

【消息服務(wù)端 broker 組裝消息】

代碼位置:PullMessageProcessor#processRequest

  • 根據(jù)訂閱消息,構(gòu)建消息過濾器
  • 調(diào)用 MessageStore.getMessage 查找消息
  • 根據(jù)主題名與隊(duì)列編號獲取消息消費(fèi)隊(duì)列
  • 消息偏移量異常情況校對下一次拉取偏移量
  • 根據(jù) PullRequest 填充 responseHeader 的 nextBeginOffset、minOffset、maxOffset
  • 根據(jù)主從同步延遲,如果從節(jié)點(diǎn)數(shù)據(jù)包含下一次拉取的偏移量,設(shè)置下一次拉取任務(wù)的 brokerId
  • 如果 commitlog 標(biāo)記可用并且當(dāng)前節(jié)點(diǎn)為主節(jié)點(diǎn),則更新消息消費(fèi)進(jìn)度

【消息拉取長輪詢機(jī)制】

RocketMQ 推模式是循環(huán)向消息服務(wù)端發(fā)送消息拉取請求。

消費(fèi)者向 broker 拉取消息時,如果消息未到達(dá)消費(fèi)隊(duì)列,并且未啟用 長輪詢機(jī)制,則會在服務(wù)端等待 shortPollingTimeMills(默認(rèn)1秒) 時間后再去判斷消息是否已經(jīng)到達(dá)消息隊(duì)列,如果消息未到達(dá),則提示消息拉取客戶端 PULL_NOT_FOUND。

如果開啟長輪詢模式,rocketMQ 會每 5s 輪詢檢查一次消息是否可達(dá),同時一有新消息到達(dá)后立馬通知掛起線程再次驗(yàn)證新消息是否是自己感興趣的消息,如果是則從 commitlog 文件提取消息返回給消息拉取客戶端,否則直到掛起超時,超時時間由消息拉取方在消息拉取時封裝在請求參數(shù)中,PUSH 模式默認(rèn) 15s。

PULL 模式通過 DefaultMQPullConsumer#setBrokerSuspendMaxTimeMillis 設(shè)置。RocketMQ 通過在 Broker 端配置 longPollingEnable 為 true 來開啟長輪詢模式。

RocketMQ 的長輪詢機(jī)制由 2 個線程共同完成。PullRequestHoldService、ReputMessageService。

【Push消費(fèi)模式流程簡析】

后臺獨(dú)立線程RebalanceServic根據(jù)Topic中消息隊(duì)列個數(shù)和當(dāng)前消費(fèi)組內(nèi)消費(fèi)者個數(shù)進(jìn)行負(fù)載均衡,給當(dāng)前消費(fèi)者分配對應(yīng)的MessageQueue,將其封裝為PullRequest實(shí)例放入隊(duì)列pullRequestQueue中。

Consumer端開啟后臺獨(dú)立的線程PullMessageService不斷地從隊(duì)列pullRequestQueue中獲取PullRequest并通過網(wǎng)絡(luò)通信模塊異步發(fā)送Pull消息的RPC請求給Broker端。這里算是比較典型的生產(chǎn)者-消費(fèi)者模型,實(shí)現(xiàn)了準(zhǔn)實(shí)時的自動消息拉取。

PullMessageService異步拉取到消息后,通過PullCallback進(jìn)行回調(diào)處理,如果拉取成功,則更新消費(fèi)進(jìn)度,putPullRequest到阻塞隊(duì)列pullRequestQueue中,接著立即進(jìn)行拉取

監(jiān)聽器 ConsumeMessageConcurrentlyService 會一直監(jiān)聽回調(diào)方法 PullCallback,把拉取到的消息交給Consumerrequest進(jìn)行處理,Consumerrequest會調(diào)用消費(fèi)者業(yè)務(wù)方實(shí)現(xiàn)的consumeMessage()接口處理具體業(yè)務(wù),消費(fèi)者業(yè)務(wù)方處理完成后返回ACK給Consumerrequest,如果消費(fèi)者ACK返回的失敗,則在集群模式下把消息發(fā)回 Broker 進(jìn)行重試(廣播模型重試的成本太高),最后更新消費(fèi)進(jìn)度offsetTable

在Broker端,PullMessageProcessor業(yè)務(wù)處理器收到Pull消息的RPC請求后,通過MessageStore實(shí)例從commitLog獲取消息。如果第一次嘗試Pull消息失敗(比如Broker端沒有可以消費(fèi)的消息),則通過長輪詢機(jī)制先hold住并且掛起該請求,然后通過Broker端的后臺線程PullRequestHoldService重新嘗試和后臺線程ReputMessageService進(jìn)行二次處理。

【Push消息流程圖】

圖片

RocketMQ消息消費(fèi)的長輪詢機(jī)制

普通輪詢和長輪詢的區(qū)別:

普通輪詢比較簡單,就是定時發(fā)起請求,服務(wù)端收到請求后不論數(shù)據(jù)有沒有更新都立即返回

優(yōu)點(diǎn)就是實(shí)現(xiàn)簡單,容易理解。

缺點(diǎn)就是服務(wù)端是被動的,服務(wù)端要不斷的處理客戶端連接,并且服務(wù)端無法控制客戶端pull的頻率以及客戶端數(shù)量.

長輪詢是對普通輪詢的優(yōu)化,依然由客戶端發(fā)起請求,服務(wù)端收到后并不立即響應(yīng)而是hold住客戶端連接,等待數(shù)據(jù)產(chǎn)生變更后(或者超過指定時間還未產(chǎn)生變更)才回復(fù)客戶端

說白了,就是對普通輪詢加了個控制,你客戶端可以隨時請求我,但是回不回復(fù)我說了算,這就保證了服務(wù)端不會被客戶端帶節(jié)奏,導(dǎo)致自己的壓力不可控.

在 RocketMq 中消費(fèi)者主動發(fā)起pull請求,broker在處理消息拉取請求時,如果沒有查詢到消息,將不返回消費(fèi)者任何信息,而是先hold住并且掛起請求,使其不會立即發(fā)起下一次拉取請求,會將請求信息pullRequest添加到pullRequestTable中,等待觸發(fā)通知消費(fèi)者的事件。

當(dāng)生產(chǎn)者發(fā)送最新消息過來后,首先持久化到commitLog文件,通過異步方式同時持久化consumerQueue和index。然后激活consumer發(fā)送來hold的請求,立即將消息通過channel寫入consumer客戶。

如果沒有消息到達(dá)且客戶端拉取的偏移量是最新的,會hold住請求。其中hold請求超時時間 < 請求設(shè)定的超時時間。同時Broker端也定時檢測是否請求超時,超時則立即將請求返回,狀態(tài)code為NO_NEW_MESSAGE。

然后在Broker端,通過后臺獨(dú)立線程PullRequestHoldService遍歷所有掛起的請求pullRequestTable,如果有消息,則返回響應(yīng)給消費(fèi)者。

同時,另外一個ReputMessageService線程不斷地構(gòu)建ConsumeQueue/IndexFile數(shù)據(jù),不斷的檢測是否有新消息產(chǎn)生,如果有新消息,則從pullRequestTable通過Topic+queueId的key獲取對應(yīng)hold住的請求pullRequest,再根據(jù)其中的長鏈接channel進(jìn)行通信響應(yīng)。

通過這種長輪詢機(jī)制,即可解決Consumer端需要通過不斷地發(fā)送無效的輪詢Pull請求,而導(dǎo)致整個RocketMQ集群中Broker端負(fù)載很高的問題。

流程如下:

圖片

消息隊(duì)列負(fù)載與重新分布機(jī)制

當(dāng)一個業(yè)務(wù)系統(tǒng)部署多臺機(jī)器時,每臺機(jī)器都啟動了一個Consumer,并且這些Consumer都在同一個ConsumerGroup也就是消費(fèi)組中,此時一個消費(fèi)組中多個Consumer消費(fèi)一個Topic,而一個Topic中會有多個MessageQueue。

比如有2個Consumer,3個MessageQueue,那么這3個MessageQueue怎么分配呢?這就涉及到Consumer的負(fù)載均衡了。

首先 Consumer 在啟動時,會把自己注冊給所有 Broker ,并保持心跳,讓每一個 Broker 都知道消費(fèi)組中有哪些 Consumer 。

然后 Consumer 在消費(fèi)時,會隨機(jī)鏈接一臺 Broker ,獲取消費(fèi)組中的所有 Consumer 。

主要流程如下:

圖片

RocketMQ 消息隊(duì)列重新分布由 RebalanceService 線程來實(shí)現(xiàn)的。RebalanceService 隨著 MQClientInstance 的啟動而啟動。RebalanceService 默認(rèn)每 20 秒,執(zhí)行一次 MQClientInstance#doRebalance

【主題的消息隊(duì)列負(fù)載流程】

  1. 獲取主題的隊(duì)列,向 broker 發(fā)送請求,獲取主題下,消費(fèi)組所有消費(fèi)者客戶端ID。
  2. 只有當(dāng) 2 者均不為空時,才有必要進(jìn)行 rebalance。
  3. 在 rebalance 時,需要對 隊(duì)列,還有消費(fèi)者客戶端 ID 進(jìn)行排序,以確保同一個消費(fèi)組下的視圖是一致的。
  4. 根據(jù) 分配策略 AllocateMessageQueueStrategy 為 消費(fèi)者分配隊(duì)列。

客戶端執(zhí)行期間 伴隨著PullMessageService 與 RebalanceService 線程交互

圖片

消息消費(fèi)過程

【消費(fèi)過程】

  1. 默認(rèn)拉取32條消息,如果消息數(shù)量大于 32 則分頁處理。
  2. 每次進(jìn)行消費(fèi)時,都會判斷 processQueue 是否被刪除,阻止消費(fèi)者 消費(fèi) 不屬于自己的 隊(duì)列
  3. 恢復(fù)重試消息主題名, rocketMQ 消息重試機(jī)制,決定了,如果發(fā)現(xiàn)消息的延時級別 delayTimeLevel 大于 0,會首先將重試主題存入消息的屬性中,然后設(shè)置主題名稱為 SCHEDULE_TOPIC ,以便時間到后重新參與消息消費(fèi)。
  4. 在消費(fèi)之前,執(zhí)行 hock
  5. 執(zhí)行,我們編寫的消費(fèi)代碼
  6. 在消費(fèi)之后,執(zhí)行 hock
  7. 消費(fèi)完畢后,再次驗(yàn)證 processQueue 是否被刪除,如果被刪除,不處理結(jié)果。
  8. 對消費(fèi)者返回的結(jié)果,進(jìn)行處理
  9. 如果消費(fèi)成功,那么 ack = consumeRequest.getMsgs().size() - 1。會直接更新消費(fèi)進(jìn)度。如果消費(fèi)失敗,那么 ack = -1,重新發(fā)送消息。如果在重新發(fā)送消息時,又失敗了,那么會延遲 5 秒在繼續(xù)消費(fèi)。
  10. 不管是消費(fèi)成功,還是失敗,都會更新消費(fèi)進(jìn)度

【消息確認(rèn)】

客戶端在發(fā)送重試消息時,封裝了 ConsumerSendMsgBackRequestHeader。

  1. // 消息物理偏移量 
  2. private Long offset; 
  3. // 消費(fèi)組 
  4. private String group
  5. // 延遲等級 
  6. private Integer delayLevel; 
  7. // 消息ID 
  8. private String originMsgId; 
  9. // 消息主題 
  10. private String originTopic; 
  11. // 最大重新消費(fèi)次數(shù),默認(rèn) 16 次   SubscriptionGroupConfig.retryMaxTimes 中定義 
  12. private Integer maxReconsumeTimes; 

服務(wù)端的接收邏輯

  • 先獲取消費(fèi)組訂閱配置信息,不存在則直接返回
  • 創(chuàng)建主題:%RETRY% + group,并隨機(jī)選擇一個隊(duì)列
  • 用原來的消息,創(chuàng)建一個新的消息
  • 如果重試消息的最大重試次數(shù)超過 16 次(默認(rèn)),則將消息放入 %DLQ% 隊(duì)列(死信隊(duì)列)。等待人工處理
  • 由 Commitlog.putMessage 存入消息。

小結(jié)

從消息消費(fèi)者和消費(fèi)者組的基本概念,到消息消費(fèi)的流程。我們了解了RocetMQ消息消費(fèi)的相關(guān)原理。消費(fèi)者客戶端的啟動后,會后臺運(yùn)行幾個定時任務(wù)來處理相關(guān)的邏輯。也知道了RocetMQ消息獲取有推拉兩種模式,而且推模式也是建立在拉模式的基礎(chǔ)之上。知道了普通輪詢和長輪詢的區(qū)別,并且了解了長輪詢的實(shí)現(xiàn)邏輯。對消息消費(fèi)和確認(rèn)流程有了了解。

 

責(zé)任編輯:姜華 來源: 小汪哥寫代碼
相關(guān)推薦

2021-07-08 05:52:34

Kafka架構(gòu)主從架構(gòu)

2021-07-08 07:16:24

RocketMQ數(shù)據(jù)結(jié)構(gòu)Message

2025-07-08 08:51:45

2022-07-07 09:00:49

RocketMQ消費(fèi)者消息消費(fèi)

2021-07-09 07:15:48

RocketMQ數(shù)據(jù)結(jié)構(gòu)kafka

2022-11-08 07:36:17

RocketMQ消費(fèi)者消息堆積

2021-07-16 18:44:42

RocketMQ知識

2021-07-14 17:18:14

RocketMQ消息分布式

2021-07-07 15:29:52

存儲RocketMQ體系

2024-01-24 09:00:31

SSD訂閱關(guān)系內(nèi)存

2024-04-22 00:00:00

RocketMQ優(yōu)化位點(diǎn)

2021-07-13 11:52:47

順序消息RocketMQkafka

2023-03-28 07:08:09

RocketMQ消費(fèi)者堆棧

2015-07-28 17:52:36

IOS知識體系

2012-03-08 11:13:23

企業(yè)架構(gòu)

2017-06-22 13:07:21

2017-02-27 16:42:23

Spark識體系

2017-04-03 15:35:13

知識體系架構(gòu)

2021-07-05 06:26:08

生產(chǎn)者kafka架構(gòu)

2022-05-09 11:15:05

RocketMQPULL 模式PUSH 模式
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號