免费观看又色又爽又黄的小说免费_美女福利视频国产片_亚洲欧美精品_美国一级大黄大色毛片

一個大型的網站高并發架構實例

2021-03-02    分類: 網站建設

(1)單塊架構

(2)初步的高可用架構

(3)千萬級用戶量的壓力預估

(4)服務器壓力預估

(5)業務垂直拆分

(6)用分布式緩存抗下讀請求

(7)基于數據庫主從架構做讀寫分離

(8)總結

本文將會從一個大型的網站發展歷程出發,一步一步的探索這個網站的架構是如何從單體架構,演化到分布式架構,然后演化到高并發架構的。

一般一個網站剛開始建立的時候,用戶量是很少的,大概可能就幾萬或者幾十萬的用戶量,每天活躍的用戶可能就幾百或者幾千個。

這個時候一般網站架構都是采用單體架構來設計的,總共就部署3臺服務器,1臺應用服務器,1臺數據庫服務器,1臺圖片服務器。

研發團隊通常都在10人以內,就是在一個單塊應用里寫代碼,然后寫好之后合并代碼,接著就是直接在線上的應用服務器上發布。很可能就是手動把應用服務器上的Tomcat給關掉,然后替換系統的代碼war包,接著重新啟動Tomcat。

數據庫一般就部署在一臺獨立的服務器上,存放網站的全部核心數據。

然后在另外一臺獨立的服務器上部署NFS作為圖片服務器,存放網站的全部圖片。應用服務器上的代碼會連接以及操作數據庫以及圖片服務器。如下圖所示:


但是這種純單塊系統架構下,有高可用問題存在,大的問題就是應用服務器可能會故障,或者是數據庫可能會故障

所以在這個時期,一般稍微預算充足一點的公司,都會做一個初步的高可用架構出來。

對于應用服務器而言,一般會集群化部署。當然所謂的集群化部署,在初期用戶量很少的情況下,其實一般也就是部署兩臺應用服務器而已,然后前面會放一臺服務器部署負載均衡設備,比如說LVS,均勻的把用戶請求打到兩臺應用服務器上去。

如果此時某臺應用服務器故障了,還有另外一臺應用服務器是可以使用的,這樣就避免了單點故障問題。如下圖所示:


對于數據庫服務器而言,此時一般也會使用主從架構,部署一臺從庫來從主庫同步數據,這樣一旦主庫出現問題,可以迅速使用從庫繼續提供數據庫服務,避免數據庫故障導致整個系統都徹底故障不可用。如下圖:


這個假設這個網站預估的用戶數是1000萬,那么根據28法則,每天會來訪問這個網站的用戶占到20%,也就是200萬用戶每天會過來訪問。

通常假設平均每個用戶每次過來會有30次的點擊,那么總共就有6000萬的點擊(PV)。

每天24小時,根據28法則,每天大部分用戶最活躍的時間集中在(24小時 * 0.2)≈ 5小時內,而大部分用戶指的是(6000萬點擊 * 0.8 ≈ 5000萬點擊)

也就是說,在5小時內會有5000萬點擊進來。

換算下來,在那5小時的活躍訪問期內,大概每秒鐘會有3000左右的請求量,然后這5小時中可能又會出現大量用戶集中訪問的高峰時間段。

比如在集中半個小時內大量用戶涌入形成高峰訪問。根據線上經驗,一般高峰訪問是活躍訪問的2~3倍。假設我們按照3倍來計算,那么5小時內可能有短暫的峰值會出現每秒有10000左右的請求。

大概知道了高峰期每秒鐘可能會有1萬左右的請求量之后,來看一下系統中各個服務器的壓力預估。

一般來說一臺虛擬機部署的應用服務器,上面放一個Tomcat,也就支撐最多每秒幾百的請求。

按每秒支撐500的請求來計算,那么支撐高峰期的每秒1萬訪問量,需要部署20臺應用服務。

而且應用服務器對數據庫的訪問量又是要翻幾倍的,因為假設一秒鐘應用服務器接收到1萬個請求,但是應用服務器為了處理每個請求可能要涉及到平均3~5次數據庫的訪問。

按照3次數據庫訪問來算,那么每秒會對數據庫形成3萬次的請求。

按照一臺數據庫服務器高支撐每秒5000左右的請求量,此時需要通過6臺數據庫服務器才能支撐每秒3萬左右的請求。

圖片服務器的壓力同樣會很大,因為需要大量的讀取圖片展示頁面,這個不太好估算,但是大致可以推算出來每秒至少也會有幾千次請求,因此也需要多臺圖片服務器來支撐圖片訪問的請求。

一般來說在這個階段要做的第一件事兒就是業務的垂直拆分

因為如果所有業務代碼都混合在一起部署,會導致多人協作開發時難以維護。在網站到了千萬級用戶的時候,研發團隊一般都有幾十人甚至上百人。

所以這時如果還是在一個單塊系統里做開發,是一件非常痛苦的事情,此時需要做的就是進行業務的垂直拆分,把一個單塊系統拆分為多個業務系統,然后一個小團隊10個人左右就專門負責維護一個業務系統。如下圖


這個時候應用服務器層面一般沒什么大問題,因為無非就是加機器就可以抗住更高的并發請求。

現在估算出來每秒鐘是1萬左右的請求,部署個二三十臺機器就沒問題了。

但是目前上述系統架構中壓力大的,其實是數據庫層面 ,因為估算出來可能高峰期對數據庫的讀寫并發會有3萬左右的請求。

此時就需要引入分布式緩存來抗下對數據庫的讀請求壓力了,也就是引入Redis集群。

一般來說對數據庫的讀寫請求也大致遵循28法則,所以每秒3萬的讀寫請求中,大概有2.4萬左右是讀請求

這些讀請求基本上90%都可以通過分布式緩存集群來抗下來,也就是大概2萬左右的讀請求可以通過 Redis集群來抗住。

我們完全可以把熱點的、常見的數據都在Redis集群里放一份作為緩存,然后對外提供緩存服務。

在讀數據的時候優先從緩存里讀,如果緩存里沒有,再從數據庫里讀取。這樣2萬讀請求就落到Redis上了,1萬讀寫請求繼續落在數據庫上。

Redis一般單臺服務器抗每秒幾萬請求是沒問題的,所以Redis集群一般就部署3臺機器,抗下每秒2萬讀請求是絕對沒問題的。如下圖所示:


此時數據庫服務器還是存在每秒1萬的請求,對于單臺服務器來說壓力還是過大。

但是數據庫一般都支持主從架構,也就是有一個從庫一直從主庫同步數據過去。此時可以基于主從架構做讀寫分離。

也就是說,每秒大概6000寫請求是進入主庫,大概還有4000個讀請求是在從庫上去讀,這樣就可以把1萬讀寫請求壓力分攤到兩臺服務器上去。

這么分攤過后,主庫每秒最多6000寫請求,從庫每秒最多4000讀請求,基本上可以勉強把壓力給抗住。如下圖:


本文主要是探討在千萬級用戶場景下的大型網站的高并發架構設計,也就是預估出了千萬級用戶的訪問壓力以及對應的后臺系統為了要抗住高并發,在業務系統、緩存、數據庫幾個層面的架構設計以及抗高并發的分析。

但是要記住,大型網站架構中共涉及的技術遠遠不止這些,還包括了MQ、CDN、靜態化、分庫分表、NoSQL、搜索、分布式文件系統、反向代理,等等很多話題,但是本文不能一一涉及,主要是在高并發這個角度分析一下系統如何抗下每秒上萬的請求。

網站欄目:一個大型的網站高并發架構實例
文章地址:http://m.newbst.com/news17/103867.html

成都網站建設公司_創新互聯,為您提供關鍵詞優化企業建站網頁設計公司網站制作小程序開發商城網站

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

搜索引擎優化