每秒100W請求,12306秒殺業(yè)務,架構如何優(yōu)化?
如《同樣是高并發(fā),QQ/微博/12306的架構難度一樣嗎?》一文所述,同樣是高并發(fā)場景,三類業(yè)務的架構挑戰(zhàn)不一樣:
- QQ類業(yè)務,用戶主要讀寫自己的數據,訪問基本帶有uid屬性,數據訪問鎖沖突較小
- 微博類業(yè)務,用戶的feed主頁由別人發(fā)布的消息構成,數據讀寫有一定鎖沖突
- 12306類業(yè)務,并發(fā)量很高,幾乎所有的讀寫鎖沖突都集中在少量數據上,難度最大
那么對于秒殺類業(yè)務,系統(tǒng)上和業(yè)務上分別能如何優(yōu)化呢,這是本文要討論的問題。
系統(tǒng)層面,秒殺業(yè)務的優(yōu)化方向如何?
主要有兩項:
(1)將請求盡量攔截在系統(tǒng)上游,而不要讓鎖沖突落到數據庫。
傳統(tǒng)秒殺系統(tǒng)之所以掛,是因為請求都壓到了后端數據層,數據讀寫鎖沖突嚴重,并發(fā)高響應慢,幾乎所有請求都超時,訪問流量大,下單成功的有效流量小。
一趟火車2000張票,200w個人同時來買,沒有人能買成功,請求有效率為0。
畫外音:此時系統(tǒng)的效率,還不如線下售票窗口。
(2)充分利用緩存。
秒殺買票,這是一個典型的讀多寫少的業(yè)務場景:
- 車次查詢,讀,量大
- 余票查詢,讀,量大
- 下單和支付,寫,量小
一趟火車2000張票,200w個人同時來買,最多2000個人下單成功,其他人都是查詢庫存,寫比例只有0.1%,讀比例占99.9%,非常適合使用緩存來優(yōu)化。
秒殺業(yè)務,常見的系統(tǒng)分層架構如何?
秒殺業(yè)務,可以使用典型的服務化分層架構:
- 端(瀏覽器/APP),最上層,面向用戶
- 站點層,訪問后端數據,拼裝html/json返回
- 服務層,屏蔽底層數據細節(jié),提供數據訪問
- 數據層,DB存儲庫存,當然也有緩存
這四層分別應該如何優(yōu)化呢?
一、端上的請求攔截(瀏覽器/APP)
想必春節(jié)大家都玩過微信的搖一搖搶紅包,用戶每搖一次,真的就會往后端發(fā)送一次請求么?
回顧搶票的場景,用戶點擊“查詢”按鈕之后,系統(tǒng)卡頓,用戶著急,會不自覺的再去頻繁點擊“查詢”,不但沒用,反而平白無故增加系統(tǒng)負載,平均一個用戶點5次,80%的請求是這么多出來的。
JS層面,可以限制用戶在x秒之內只能提交一次請求,從而降低系統(tǒng)負載。
畫外音:頻繁提交,可以友好提示“頻率過快”。
APP層面,可以做類似的事情,雖然用戶瘋狂的在搖微信搶紅包,但其實x秒才向后端發(fā)起一次請求。
畫外音:這就是所謂的“將請求盡量攔截在系統(tǒng)上游”,瀏覽器/APP層就能攔截80%+的請求。
不過,端上的攔截只能擋住普通用戶(99%的用戶是普通用戶),程序員firebug一抓包,寫個for循環(huán)直接調用后端http接口,js攔截根本不起作用,這下怎么辦?
二、站點層的請求攔截
如何抗住程序員寫for循環(huán)調用http接口,首先要確定用戶的唯一標識,對于頻繁訪問的用戶予以攔截。
用什么來做用戶的唯一標識?
ip?cookie-id?別想得太復雜,購票類業(yè)務都需要登錄,用uid就能標識用戶。
在站點層,對同一個uid的請求進行計數和限速,例如:一個uid,5秒只準透過1個請求,這樣又能攔住99%的for循環(huán)請求。
一個uid,5s只透過一個請求,其余的請求怎么辦?
緩存,頁面緩存,5秒內到達站點層的其他請求,均返回上次返回的頁面。
畫外音:車次查詢和余票查詢都能夠這么做,既能保證用戶體驗(至少沒有返回404頁面),又能保證系統(tǒng)的健壯性(利用頁面緩存,把請求攔截在站點層了)。
OK,通過計數、限速、頁面緩存攔住了99%的普通程序員,但仍有些高端程序員,例如黑客,控制了10w個肉雞,手里有10w個uid,同時發(fā)請求,這下怎么辦?
三、服務層的請求攔截
并發(fā)的請求已經到了服務層,如何進攔截?
服務層非常清楚業(yè)務的庫存,非常清楚數據庫的抗壓能力,可以根據這兩者進行削峰限速。
例如,業(yè)務服務很清楚的知道,一列火車只有2000張車票,此時透傳10w個請求去數據庫,是沒有意義的。
畫外音:假如數據庫每秒只能抗500個寫請求,就只透傳500個。
用什么削峰?
請求隊列。
對于寫請求,做請求隊列,每次只透傳有限的寫請求去數據層(下訂單,支付這樣的寫業(yè)務)。
只有2000張火車票,即使10w個請求過來,也只透傳2000個去訪問數據庫:
- 如果前一批請求均成功,再放下一批
- 如果前一批請求庫存已經不足,則后續(xù)請求全部返回“已售罄”
對于讀請求,怎么優(yōu)化?
cache抗,不管是memcached還是redis,單機抗個每秒10w應該都是沒什么問題的。
畫外音:緩存做水平擴展,很容易線性擴容。
如此削峰限流,只有非常少的寫請求,和非常少的讀緩存mis的請求會透到數據層去,又有99%的請求被攔住了。
四、數據庫層
經過前三層的優(yōu)化:
- 瀏覽器攔截了80%請求
- 站點層攔截了99%請求,并做了頁面緩存
- 服務層根據業(yè)務庫存,以及數據庫抗壓能力,做了寫請求隊列與數據緩存
你會發(fā)現,每次透到數據庫層的請求都是可控的。
db基本就沒什么壓力了,閑庭信步。
畫外音:這類業(yè)務數據量不大,無需分庫,數據庫做一個高可用就行。
此時,透2000個到數據庫,全部成功,請求有效率100%。
畫外音:優(yōu)化前,10w個請求0個成功,有效性0%。
按照上面的優(yōu)化方案,其實壓力最大的反而是站點層,假設真實有效的請求數是每秒100w,這部分的壓力怎么處理?
解決方向有兩個:
- 站點層水平擴展,通過加機器擴容,一臺抗5000,200臺搞定;
- 服務降級,拋棄請求,例如拋棄50%;
原則是要保護系統(tǒng),不能讓所有用戶都失敗。
站點層限速,是個每個uid的請求計數放到redis里么?吞吐量很大情況下,高并發(fā)訪問redis,網絡帶寬會不會成為瓶頸?
同一個uid計數與限速,如果擔心訪問redis帶寬成為瓶頸,可以這么優(yōu)化:
- 計數直接放在內存,這樣就省去了網絡請求;
- 在nginx層做7層均衡,讓一個uid的請求落到同一個機器上;
畫外音:這個計數對數據一致性、準確性要求不高,即使服務重啟計數丟了,大不了重新開始計。
除了系統(tǒng)上的優(yōu)化,產品與業(yè)務還能夠做一些折衷,降低架構難度。
- 業(yè)務折衷一:一般來說,下單和支付放在同一個流程里,能夠提高轉化率。對于秒殺場景,產品上,下單流程和支付流程異步,放在兩個環(huán)節(jié)里,能夠降低數據庫寫壓力。以12306為例,下單成功后,系統(tǒng)占住庫存,45分鐘之內支付即可。
- 業(yè)務折衷二:一般來說,所有用戶規(guī)則相同,體驗會更好。對于秒殺場景,產品上,不同地域分時售票,雖然不是所有用戶規(guī)則相同,但能夠極大降低系統(tǒng)壓力。北京9:00開始售票,上海9:30開始售票,廣州XX開始售票,能夠分擔系統(tǒng)壓力。
- 業(yè)務折衷三:秒殺場景,由于短時間內并發(fā)較大,系統(tǒng)返回較慢,用戶心情十分焦急,可能會頻繁點擊按鈕,對系統(tǒng)造成壓力。產品上可以優(yōu)化為,一旦點擊,不管系統(tǒng)是否返回,按鈕立刻置灰,不給用戶機會頻繁點擊。
- 業(yè)務折衷四:一般來說,顯示具體的庫存數量,能夠加強用戶體驗。對于秒殺場景,產品上,只顯示有/無車票,而不是顯示具體票數目,能夠降低緩存淘汰率。
畫外音:顯示庫存會淘汰N次,顯示有無只會淘汰1次。更多的,用戶關注是否有票,而不是票有幾張。
無論如何,產品技術運營一起,目標是一致的,把事情做好,不存在誰是甲方,誰是乙方的關系。
總結
對于秒殺系統(tǒng),除了產品和業(yè)務上的折衷,架構設計上主要有兩大優(yōu)化方向:
- 盡量將請求攔截在系統(tǒng)上游;
- 讀多寫少用緩存;
【本文為51CTO專欄作者“58沈劍”原創(chuàng)稿件,轉載請聯系原作者】