偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Redis Plus 來(lái)了,性能炸裂!

數(shù)據(jù)庫(kù) Redis
KeyDB項(xiàng)目是從redis fork出來(lái)的分支。眾所周知redis是一個(gè)單線程的kv內(nèi)存存儲(chǔ)系統(tǒng),而KeyDB在100%兼容Redis API的情況下將redis改造成多線程。

KeyDB項(xiàng)目是從Redis fork出來(lái)的分支。眾所周知Redis是一個(gè)單線程的kv內(nèi)存存儲(chǔ)系統(tǒng),而KeyDB在100%兼容Redis API的情況下將Redis改造成多線程。

線程模型

KeyDB將Redis原來(lái)的主線程拆分成了主線程和worker線程。每個(gè)worker線程都是io線程,負(fù)責(zé)監(jiān)聽(tīng)端口,accept請(qǐng)求,讀取數(shù)據(jù)和解析協(xié)議。如圖所示:

KeyDB使用了SO_REUSEPORT特性,多個(gè)線程可以綁定監(jiān)聽(tīng)同個(gè)端口。

每個(gè)worker線程做了cpu綁核,讀取數(shù)據(jù)也使用了SO_INCOMING_CPU特性,指定cpu接收數(shù)據(jù)。

解析協(xié)議之后每個(gè)線程都會(huì)去操作內(nèi)存中的數(shù)據(jù),由一把全局鎖來(lái)控制多線程訪問(wèn)內(nèi)存數(shù)據(jù)。

主線程其實(shí)也是一個(gè)worker線程,包括了worker線程的工作內(nèi)容,同時(shí)也包括只有主線程才可以完成的工作內(nèi)容。在worker線程數(shù)組中下標(biāo)為0的就是主線程。

主線程的主要工作在實(shí)現(xiàn)serverCron,包括:

  • 處理統(tǒng)計(jì)
  • 客戶端鏈接管理
  • db數(shù)據(jù)的resize和reshard
  • 處理aof
  • replication主備同步
  • cluster模式下的任務(wù)

鏈接管理

在Redis中所有鏈接管理都是在一個(gè)線程中完成的。在KeyDB的設(shè)計(jì)中,每個(gè)worker線程負(fù)責(zé)一組鏈接,所有的鏈接插入到本線程的鏈接列表中維護(hù)。鏈接的產(chǎn)生、工作、銷毀必須在同個(gè)線程中。每個(gè)鏈接新增一個(gè)字段。

int iel; /* the event loop index we're registered with */

用來(lái)表示鏈接屬于哪個(gè)線程接管。

KeyDB維護(hù)了三個(gè)關(guān)鍵的數(shù)據(jù)結(jié)構(gòu)做鏈接管理:

  • clients_pending_write:線程專屬的鏈表,維護(hù)同步給客戶鏈接發(fā)送數(shù)據(jù)的隊(duì)列;
  • clients_pending_asyncwrite:線程專屬的鏈表,維護(hù)異步給客戶鏈接發(fā)送數(shù)據(jù)的隊(duì)列;
  • clients_to_close:全局鏈表,維護(hù)需要異步關(guān)閉的客戶鏈接。

分成同步和異步兩個(gè)隊(duì)列,是因?yàn)閞edis有些聯(lián)動(dòng)api,比如pub/sub,pub之后需要給sub的客戶端發(fā)送消息,pub執(zhí)行的線程和sub的客戶端所在線程不是同一個(gè)線程,為了處理這種情況,KeyDB將需要給非本線程的客戶端發(fā)送數(shù)據(jù)維護(hù)在異步隊(duì)列中。同步發(fā)送的邏輯比較簡(jiǎn)單,都是在本線程中完成,以下圖來(lái)說(shuō)明如何同步給客戶端發(fā)送數(shù)據(jù):

如上文所提到的,一個(gè)鏈接的創(chuàng)建、接收數(shù)據(jù)、發(fā)送數(shù)據(jù)、釋放鏈接都必須在同個(gè)線程執(zhí)行。異步發(fā)送涉及到兩個(gè)線程之間的交互。KeyDB通過(guò)管道在兩個(gè)線程中傳遞消息:

int fdCmdWrite; //寫管道
int fdCmdRead; //讀管道

本地線程需要異步發(fā)送數(shù)據(jù)時(shí),先檢查client是否屬于本地線程,非本地線程獲取到client專屬的線程ID,之后給專屬的線程管到發(fā)送AE_ASYNC_OP::CreateFileEvent的操作,要求添加寫socket事件。專屬線程在處理管道消息時(shí)將對(duì)應(yīng)的請(qǐng)求添加到寫事件中,如圖所示:

Redis有些關(guān)閉客戶端的請(qǐng)求并非完全是在鏈接所在的線程執(zhí)行關(guān)閉,所以在這里維護(hù)了一個(gè)全局的異步關(guān)閉鏈表。

鎖機(jī)制

KeyDB實(shí)現(xiàn)了一套類似spinlock的鎖機(jī)制,稱之為fastlock。

fastlock的主要數(shù)據(jù)結(jié)構(gòu)有:

struct ticket
{
    uint16_t m_active;  //解鎖+1
    uint16_t m_avail;  //加鎖+1
};
struct fastlock
{
    volatile struct ticket m_ticket;

    volatile int m_pidOwner; //當(dāng)前解鎖的線程id
    volatile int m_depth; //當(dāng)前線程重復(fù)加鎖的次數(shù)
};

使用原子操作__atomic_load_2,__atomic_fetch_add,__atomic_compare_exchange來(lái)通過(guò)比較m_active=m_avail判斷是否可以獲取鎖。

fastlock提供了兩種獲取鎖的方式:

  • try_lock:一次獲取失敗,直接返回
  • lock:忙等,每1024 * 1024次忙等后使用sched_yield 主動(dòng)交出cpu,挪到cpu的任務(wù)末尾等待執(zhí)行。

在KeyDB中將try_lock和事件結(jié)合起來(lái),來(lái)避免忙等的情況發(fā)生。每個(gè)客戶端有一個(gè)專屬的lock,在讀取客戶端數(shù)據(jù)之前會(huì)先嘗試加鎖,如果失敗,則退出,因?yàn)閿?shù)據(jù)還未讀取,所以在下個(gè)epoll_wait處理事件循環(huán)中可以再次處理。

Active-Replica

KeyDB實(shí)現(xiàn)了多活的機(jī)制,每個(gè)replica可設(shè)置成可寫非只讀,replica之間互相同步數(shù)據(jù)。主要特性有:

  • 每個(gè)replica有個(gè)uuid標(biāo)志,用來(lái)去除環(huán)形復(fù)制
  • 新增加rreplay API,將增量命令打包成rreplay命令,帶上本地的uuid
  • key,value加上時(shí)間戳版本號(hào),作為沖突校驗(yàn),如果本地有相同的key且時(shí)間戳版本號(hào)大于同步過(guò)來(lái)的數(shù)據(jù),新寫入失敗。采用當(dāng)前時(shí)間戳向左移20位,再加上后44位自增的方式來(lái)獲取key的時(shí)間戳版本號(hào)。

項(xiàng)目地址:https://github.com/JohnSully/KeyDB

責(zé)任編輯:趙寧寧 來(lái)源: 碼猿技術(shù)專欄
相關(guān)推薦

2025-05-26 04:10:00

2025-02-24 09:10:00

前端VueDOM

2025-06-18 10:02:06

H3前端開(kāi)發(fā)

2025-04-07 03:00:00

SpringBoot數(shù)據(jù)庫(kù)

2023-11-09 08:46:24

2025-05-06 13:42:16

微軟Phi-4模型

2025-02-17 02:00:00

Vue性能Vapor

2025-02-12 09:04:20

2025-02-25 09:44:27

PreactReact前端

2022-06-27 09:48:15

H5移動(dòng)互聯(lián)網(wǎng)頁(yè)面性能

2025-07-17 13:05:35

2016-07-29 00:53:58

云計(jì)算高性能計(jì)算市場(chǎng)

2016-10-11 11:48:54

iPhone 7

2021-11-29 09:48:35

Redis 對(duì)象映射

2023-03-13 00:01:10

數(shù)據(jù)庫(kù)性能MySQL

2022-09-12 08:01:21

GreatSQLMySQL性能

2024-11-19 08:09:48

2024-03-12 09:47:10

Redis數(shù)據(jù)庫(kù)

2023-09-22 11:48:37

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)