這篇文章將為大家詳細講解有關(guān)如何實現(xiàn)分布式協(xié)調(diào)Kubernet,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
成都一家集口碑和實力的網(wǎng)站建設(shè)服務(wù)商,擁有專業(yè)的企業(yè)建站團隊和靠譜的建站技術(shù),十多年企業(yè)及個人網(wǎng)站建設(shè)經(jīng)驗 ,為成都超過千家客戶提供網(wǎng)頁設(shè)計制作,網(wǎng)站開發(fā),企業(yè)網(wǎng)站制作建設(shè)等服務(wù),包括成都營銷型網(wǎng)站建設(shè),品牌網(wǎng)站設(shè)計,同時也為不同行業(yè)的客戶提供成都網(wǎng)站設(shè)計、成都網(wǎng)站建設(shè)、外貿(mào)網(wǎng)站建設(shè)的服務(wù),包括成都電商型網(wǎng)站制作建設(shè),裝修行業(yè)網(wǎng)站制作建設(shè),傳統(tǒng)機械行業(yè)網(wǎng)站建設(shè),傳統(tǒng)農(nóng)業(yè)行業(yè)網(wǎng)站制作建設(shè)。在成都做網(wǎng)站,選網(wǎng)站制作建設(shè)服務(wù)商就選創(chuàng)新互聯(lián)建站。
單一的應(yīng)用程序,就是之前在單個節(jié)點上運行的單個實例,包括了很多在數(shù)據(jù)庫更新狀態(tài)的調(diào)度jobs(現(xiàn)在也同樣發(fā)布商務(wù)events)。單體程序創(chuàng)建在java中,并且大量使用Spring,所以job看起來是這個樣子的:
Spring之后會確認提到過的 doSomethingEveryMinute方法每分鐘執(zhí)行一次。問題是,如果我們目前不在Kubernetes上主持單體程序,并且跟多個實例一起運行,這個job就每分鐘會在每個實例上被執(zhí)行一次,而不僅僅只是每分鐘執(zhí)行了一次而已。如果job有類似發(fā)送通知郵件或更新數(shù)據(jù)庫這樣的副作用的話,這就是一個問題了。所以我們要怎樣避免這個?當(dāng)然,解決方案還是很多的,顯而易見的選擇就是利用Kubernetes Jobs,讓Kubernetes自己周期性調(diào)度jobs。問題就是這個作用只在Kubernetes1.3版本及以上版本中可用,但是1.3還沒有發(fā)布。但是即使我們能夠使用這樣一個功能,從技術(shù)角度來說,這也是不太可行的。我們的jobs被高度耦合到已經(jīng)存在的代碼庫,并且提取每個job到它自己的應(yīng)用程序,程序可能會有錯誤,而且如果一次性完成的話會非常耗費時間。所以我們最初的計劃是提取所有的調(diào)度jobs到一個應(yīng)用程序,這個應(yīng)用程序在Kubernetes中只能作為一個實例來運行。但由于現(xiàn)有代碼的本質(zhì),和高耦合性,即使是這樣也很難實現(xiàn)。那么,有沒有一種很輕松的辦法允許我們目前在單體應(yīng)用中保持jobs,并且當(dāng)我們從這個應(yīng)用中提取功能到獨立的服務(wù)的時候,逐漸替代他們呢?其實還是有的。
要解決這個,我們需要做一些分布式協(xié)調(diào),比如,當(dāng)jobs被Spring執(zhí)行的時候,如果這個節(jié)點不是“l(fā)eader節(jié)點”,為運行調(diào)度jobs負責(zé),我們就只需要傳回信息(而且,不要和job一起運行代碼)。有一些項目能夠幫助我們來處理諸如zookeeper和hazelcast之類的東西。但是僅僅只是為了決定哪個節(jié)點執(zhí)行調(diào)度jobs,以此來設(shè)置、保留zookeeper集群就太勞師動眾了。我們需要一些易于管理的東西,假如我們能夠利用Kubernetes會怎么樣呢?Kubernetes已經(jīng)在cover下(使用 RAFT consensus algorithm)處理了leader選舉。結(jié)果證明,這個功能通過使用gcr.io/google_containers/leader-elector Docker鏡像已經(jīng)被暴露給了終端用戶。之前已經(jīng)有一個很棒的博客帖子很細節(jié)地描述過這個是如何運行的了,點擊這個網(wǎng)址查看:http://blog.kubernetes.io/2016/01/simple-leader-election-with-Kubernetes.html。所以在這里我就不多加贅述了,但是我會講一講我們是如何利用鏡像來解決我們的問題的。
我們做的就是帶來gcr.io/google_containers/leader-elector容器到我們的pod,這樣就可以讓單體應(yīng)用的實例都運行一個leader選舉的實例。這是證明Kubernetes pod有用的典型例子。
以下是一個在我們的配置resource中定義好的pod的摘錄:
我們開啟leader選舉以及我們的單體應(yīng)用程序。注意,我們將 --election=monolith-jobs當(dāng)作第一個參數(shù)。這就意味著leader選舉知道容器屬于哪一個組。所以指定這個組的容器會是leader選舉進程中的一部分,這個組之中只有一個容器會被選舉為leader。 --http=localhost:4040的第二個參數(shù)同樣是非常重要的。它在4040端口打開了一個網(wǎng)頁服務(wù)器,在這個端口,我們可以查詢到目前l(fā)eader的pod名字,然后以這個格式返回:
這是我們決定要不要運行我們的job的一個小把戲。我們要做的事情就是檢查即將執(zhí)行調(diào)度pod的名字是否跟選舉出來的leader一致,如果一致,我們就應(yīng)該繼續(xù)執(zhí)行,并且執(zhí)行job,或者其它的我們應(yīng)該返回的東西。比如:
所以我們來看看ClusterLeaderService是如何被實施的。首先,我們必須從應(yīng)用程序獲得pod的名字。Kubernetes將pod名字存儲在/etc/hostname ,Java將這個/etc/hostname暴露在HOSTNAME環(huán)境變量,這就是我們將在這個例子中引用的。另一個方法就是使用 Downward API將pod名字暴露到環(huán)境變量選擇。比如:
從這里,我們可以看到 metadata.name (也就是pod的名字)會與 MY_POD_NAME環(huán)境變量聯(lián)系在一起。但是現(xiàn)在讓我們來看看 ClusterLeaderService的實施是看起來是怎么樣的:
在這里例子中,我們正在從 RESTAssured 項目使用 JsonPath來查詢選舉者網(wǎng)頁服務(wù),并且從回應(yīng)中提取pod的名字。然后我們簡單地將本地容器的名字跟leader相比較,如果他們是相同的,那么我們就知道這個實例就是leader!就是這樣!
事實證明,上述工作運行地很不錯!如果leader節(jié)點要掛掉了,那么另一個就會自動選舉上。但這個過程會花上一點時間,要一分鐘左右。所以這個還是要權(quán)衡一下的。假如你的工作中不允許錯過任意一個job執(zhí)行,那么這個選擇對你來說是不合適的。但在我們上述的例子中,中間有那么一分鐘job沒有被準確執(zhí)行,對我們來說無傷大雅。所以我覺得這個方法十分簡單,而且當(dāng)移植一個現(xiàn)有的包含調(diào)度jobs的應(yīng)用程序的時候很有價值,因為調(diào)度jobs總有各種各樣很難提取的原因。
關(guān)于“如何實現(xiàn)分布式協(xié)調(diào)Kubernet”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
新聞標題:如何實現(xiàn)分布式協(xié)調(diào)Kubernet
網(wǎng)站鏈接:http://sd-ha.com/article12/ihecdc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供軟件開發(fā)、網(wǎng)站內(nèi)鏈、動態(tài)網(wǎng)站、建站公司、外貿(mào)建站、企業(yè)網(wǎng)站制作
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)