背景
為了更好的支持東南亞直播業(yè)務,產(chǎn)品設計為直播業(yè)務增加了彈幕。第一期彈幕使用騰訊云支持,效果并不理想,經(jīng)常出現(xiàn)卡頓、彈幕偏少等問題。最終促使我們開發(fā)自己的彈幕系統(tǒng)。性能要求是需要支持,單房間百萬用戶同時在線。
問題分析
按照背景來分析,系統(tǒng)將主要面臨以下問題:
- 帶寬壓力假如說每3秒促達用戶一次,那么每次內(nèi)容至少需要有15條才能做到視覺無卡頓。15條彈幕+http包頭的大小將超過3k,那么每秒的數(shù)據(jù)大小約為8Gbps,而運維同學通知我們所有服務的可用帶寬僅為10Gbps。
- 弱網(wǎng)導致的彈幕卡頓、丟失該問題已在線上環(huán)境
- 性能與可靠性百萬用戶同時在線,按照上文的推算,具體QPS將超過30w QPS。如何保證在雙十一等重要活動中不出問題,至關重要。性能也是另外一個需要著重考慮的點。
帶寬優(yōu)化
為了降低帶寬壓力,我們主要采用了以下方案:
- 啟用Http壓縮通過查閱資料,http gzip壓縮比率可以達到40%以上(gzip比deflate要高出4%~5%)。
- Response結構簡化
- 內(nèi)容排列順序優(yōu)化根據(jù)gzip的壓縮的壓縮原理可以知道,重復度越高,壓縮比越高,因此可以將字符串和數(shù)字內(nèi)容放在一起擺放
- 頻率控制帶寬控制:通過添加請求間隔參數(shù)(下次請求時間),保證客戶端的請求頻率服務端可控。以應對突發(fā)的流量增長問題,提供有損的服務。稀疏控制:在彈幕稀疏和空洞的時間段,通過控制下次請求時間,避免客戶端的無效請求。
彈幕卡頓、丟失分析
在開發(fā)彈幕系統(tǒng)的的時候,最常見的問題是該怎么選擇促達機制,推送 vs 拉取 ?
Long Polling via AJAX
客戶端打開一個到服務器端的 AJAX 請求,然后等待響應,服務器端需要一些特定的功能來允許請求被掛起,只要一有事件發(fā)生,服務器端就會在掛起的請求中送回響應。如果打開Http的Keepalived開關,還可以節(jié)約握手的時間。

優(yōu)點:減少輪詢次數(shù),低延遲,瀏覽器兼容性較好。
缺點:服務器需要保持大量連接。
WebSockets
長輪詢雖然省去了大量無效請求,減少了服務器壓力和一定的網(wǎng)絡帶寬的占用,但是還是需要保持大量的連接。那么人們就在考慮了,有沒有這樣一個完美的方案,即能雙向通信,又可以節(jié)約請求的 header 網(wǎng)絡開銷,并且有更強的擴展性,最好還可以支持二進制幀,壓縮等特性呢?于是人們就發(fā)明了這樣一個目前看似“完美”的解決方案 —— WebSocket。它的最大特點就是,服務器可以主動向客戶端推送信息,客戶端也可以主動向服務器發(fā)送信息,是真正的雙向平等對話。

優(yōu)點:
較少的控制開銷,在連接創(chuàng)建后,服務器和客戶端之間交換數(shù)據(jù)時,用于協(xié)議控制的數(shù)據(jù)包頭部相對較小。在不包含擴展的情況下,對于服務器到客戶端的內(nèi)容,此頭部大小只有2至10字節(jié)(和數(shù)據(jù)包長度有關);對于客戶端到服務器的內(nèi)容,此頭部還需要加上額外的4字節(jié)的掩碼。相對于 HTTP 請求每次都要攜帶完整的頭部,此項開銷顯著減少了。
更強的實時性,由于協(xié)議是全雙工的,所以服務器可以隨時主動給客戶端下發(fā)數(shù)據(jù)。相對于HTTP請求需要等待客戶端發(fā)起請求服務端才能響應,延遲明顯更少;即使是和Comet等類似的長輪詢比較,其也能在短時間內(nèi)更多次地傳遞數(shù)據(jù)。
長連接,保持連接狀態(tài)。
Long Polling vs Websockets
無論是以上哪種方式,都使用到TCP長連接,那么TCP的長連接是如何發(fā)現(xiàn)連接已經(jīng)斷開了呢?
TCP Keepalived會進行連接狀態(tài)探測,探測間隔主要由三個配置控制。
keepalive_probes:探測次數(shù)(默認:7次)
keepalive_time 探測的超時(默認:2小時)
keepalive_intvl 探測間隔(默認:75s)
但是由于在東南亞的弱網(wǎng)情況下,TCP長連接會經(jīng)常性的斷開:
Long Polling 能發(fā)現(xiàn)連接異常的最短間隔為:min(keepalive_intvl, polling_interval)
Websockets能發(fā)現(xiàn)連接異常的最短間隔為:Websockets: min(keepalive_intvl, client_sending_interval)
如果下次發(fā)送數(shù)據(jù)包的時候可能連接已經(jīng)斷開了,所以使用TCP長連接對于兩者均意義不大。并且弱網(wǎng)情況下Websockets其實已經(jīng)不能作為一個候選項了
- 即使Websockets服務端已經(jīng)發(fā)現(xiàn)連接斷開,仍然沒有辦法推送數(shù)據(jù),只能被動等待客戶端重新建立好連接才能推送,在此之前數(shù)據(jù)將可能會被采取丟棄的措施處理掉。
- 在每次斷開后均需要再次發(fā)送應用層的協(xié)議進行連接建立。
根據(jù)了解騰訊云的彈幕系統(tǒng),在300人以下使用的是推送模式,300人以上則是采用的輪訓模式。但是考慮到資源消耗情況,他們可能使用的是Websocket來實現(xiàn)的彈幕系統(tǒng),所以才會出現(xiàn)彈幕卡頓、丟失的情況。綜上所述,Long Polling和Websockets都不適用我們面臨的環(huán)境,所以我們最終采取了 短輪訓 的方案來實現(xiàn)彈幕促達

可靠與性能
為了保證服務的穩(wěn)定性我們對服務進行了拆分,將復雜的邏輯收攏到發(fā)送彈幕的一端。同時,將邏輯較為復雜、調(diào)用較少的發(fā)送彈幕業(yè)務與邏輯簡單、調(diào)用量高的彈幕拉取服務拆分開來。服務拆分主要考慮因素是為了不讓服務間相互影響,對于這種系統(tǒng)服務,不同服務的QPS往往是不對等的,例如像拉取彈幕的服務的請求頻率和負載通常會比發(fā)送彈幕服務高1到2個數(shù)量級,在這種情況下不能讓拉彈幕服務把發(fā)彈幕服務搞垮,反之亦然,最?度地保證系統(tǒng)的可用性,同時也更更加方便對各個服務做Scale-Up和Scale-Out。服務拆分也劃清了業(yè)務邊界,方便協(xié)同開發(fā)。
在拉取彈幕服務的一端,引入了本地緩存。數(shù)據(jù)更新的策略是服務會定期發(fā)起RPC調(diào)?從彈幕服務拉取數(shù)據(jù),拉取到的彈幕緩存到內(nèi)存中,這樣后續(xù)的請求過來時便能直接?走本地內(nèi)存的讀取,?大幅降低了調(diào)用時延。這樣做還有另外一個好處就是縮短調(diào)?鏈路,把數(shù)據(jù)放到離?戶最近的地?,同時還能降低外部依賴的服務故障對業(yè)務的影響,

為了數(shù)據(jù)拉取方便,我們將數(shù)據(jù)按照時間進行分片,將時間作為數(shù)據(jù)切割的單位,按照時間存儲、拉取、緩存數(shù)據(jù)(RingBuffer),簡化了數(shù)據(jù)處理流程。與傳統(tǒng)的Ring Buffer不一樣的是,我們只保留了尾指針,它隨著時間向前移動,每?秒向前移動一格,把時間戳和對應彈幕列表并寫到一個區(qū)塊當中,因此最多保留60秒的數(shù)據(jù)。同時,如果此時來了一個讀請求,那么緩沖環(huán)會根據(jù)客戶端傳入的時間戳計算出指針的索引位置,并從尾指針的副本區(qū)域往回遍歷直至跟索引重疊,收集到一定數(shù)量的彈幕列表返回,這種機制保證了緩沖區(qū)的區(qū)塊是整體有序的,因此在讀取的時候只需要簡單地遍歷一遍即可,加上使用的是數(shù)組作為存儲結構,帶來的讀效率是相當高的。
再來考慮可能出現(xiàn)數(shù)據(jù)競爭的情況。先來說寫操作,由于在這個場景下,寫操作是單線程的,因此?可不必關心并發(fā)寫帶來的數(shù)據(jù)一致性問題。再來說讀操作,由圖可知寫的方向是從尾指針以順時針?向移動,?讀?向是從尾指針以逆時針方向移動,?決定讀和寫的位置是否出現(xiàn)重疊取決于index的位置,由于我們保證了讀操作最多只能讀到30秒內(nèi)的數(shù)據(jù),因此緩沖環(huán)完全可以做到無鎖讀寫
在發(fā)送彈幕的一端,因為用戶一定時間能看得過來彈幕總量是有限的,所以可以對彈幕進行限流,有選擇的丟棄多余的彈幕。同時,采用柔性的處理方式,拉取用戶頭像、敏感詞過濾等分支在調(diào)用失敗的情況下,仍然能保證服務的核心流程不受影響,即彈幕能夠正常發(fā)送和接收,提供有損的服務。
總結

最終該服務在雙十二活動中,在redis出現(xiàn)短暫故障的背景下,高效且穩(wěn)定的支撐了70w用戶在線,成功完成了既定的目標