2021-01-29 分類: 網站建設
一、概要
這篇文章,給大家聊聊分布式文件系統HDFS在大量客戶端并發寫數據時,如何進行性能優化?
二、背景引入
先引入一個小的背景,假如多個客戶端同時要并發的寫Hadoop HDFS上的一個文件,這個事兒能成嗎?
明顯不可以接受啊,因為HDFS上的文件是不允許并發寫的,比如并發的追加一些數據什么。
所以HDFS里有一個機制,叫做文件契約機制。
也就是說,同一時間只能有一個客戶端獲取NameNode上面一個文件的契約,然后才可以寫入數據。
此時如果其他客戶端嘗試獲取文件契約的時候,就獲取不到,只能干等著。
通過這個機制,可以保證同一時間只有一個客戶端在寫一個文件。
在獲取到了文件契約之后,在寫文件的過程期間,那個客戶端需要開啟一個線程,不停的發送請求給NameNode進行文件續約,告訴NameNode:
而NameNode內部有一個專門的后臺線程,負責監控各個契約的續約時間。
如果某個契約很長時間沒續約了,此時就自動過期掉這個契約,讓別的客戶端來寫。
說了這么多,老規矩,給大家來一張圖,直觀的感受一下整個過程。
這個機制的優化對性能的提升是相當有幫助的,因為正常來說,過期的契約肯定還是占少數,所以壓根兒不用每次都遍歷所有的契約來檢查是否過期。
我們只需要檢查續約時間最舊的那幾個契約就可以了,如果一個契約過期了,那么就刪掉那個契約,然后再檢查第二舊的契約好了。以此類推。
通過這個TreeSet排序 + 優先檢查最舊契約的機制,有效的將大規模集群下的契約監控機制的性能提升至少10倍以上,這種思想是非常值得我們學習和借鑒的。
給大家稍微引申一下,在Spring Cloud微服務架構中,Eureka作為注冊中心其實也有續約檢查的機制,跟Hadoop是類似的。
但是在Eureka中就沒有實現類似的續約優化機制,而是暴力的每一輪都遍歷所有的服務實例的續約時間。
如果你面對的是一個大規模部署的微服務系統呢,情況就不妙了!
部署了幾十萬臺機器的大規模系統,有幾十萬個服務實例的續約信息駐留在Eureka的內存中,難道每隔幾秒鐘都要遍歷幾十萬個服務實例的續約信息嗎?
最后給大家提一句,優秀的開源項目,蘊含著很多優秀的設計思想。多看各種優秀開源項目的源碼,是短時間內快速、大幅度提升一個人的技術功底和技術水平的方式,大家不妨嘗試一下。
網站名稱:一個簡單的算法,分布式系統的性能瞬間被提升10倍以上
標題網址:http://m.newbst.com/news8/97958.html
成都網站建設公司_創新互聯,為您提供網站內鏈、App開發、網站營銷、ChatGPT、小程序開發、網站維護
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯
猜你還喜歡下面的內容