專利名稱:物理服務(wù)器、集群系統(tǒng)及其實(shí)現(xiàn)方法
技術(shù)領(lǐng)域:
本發(fā)明涉及計(jì)算機(jī)領(lǐng)域,尤其涉及一種物理服務(wù)器,以及一種集群系統(tǒng)及該種集 群系統(tǒng)的實(shí)現(xiàn)方法。
背景技術(shù):
計(jì)算機(jī)集群是一種能夠?qū)⒍嗯_(tái)計(jì)算機(jī)用于并行計(jì)算的體系結(jié)構(gòu),通常由通過(guò)低延 遲的高速互聯(lián)網(wǎng)絡(luò)連接的多個(gè)計(jì)算節(jié)點(diǎn)構(gòu)成。目前市場(chǎng)主流的計(jì)算機(jī)集群為分布式內(nèi)存的 集群,每臺(tái)物理服務(wù)器的中央處理器(CPU)訪問(wèn)自己的內(nèi)存,并通過(guò)網(wǎng)絡(luò)與其他服務(wù)器節(jié) 點(diǎn)的CPU連接,進(jìn)而訪問(wèn)其內(nèi)存。整個(gè)集群通過(guò)消息傳遞機(jī)制保證CPU間的通訊,各計(jì)算節(jié) 點(diǎn)的CPU只能直接訪問(wèn)自己的內(nèi)存。但是,目前很多應(yīng)用還無(wú)法利用消息傳遞機(jī)制利用集群來(lái)進(jìn)行共同計(jì)算,需要在 一計(jì)算節(jié)點(diǎn)上利用大內(nèi)存進(jìn)行計(jì)算,而無(wú)法利用其他計(jì)算節(jié)點(diǎn)上的內(nèi)存。這對(duì)于很多數(shù)據(jù) 中心來(lái)說(shuō),必須添置對(duì)應(yīng)的昂貴的對(duì)稱多處理(SymmetricMultiprocessing,SMP)機(jī)器來(lái) 滿足客戶的應(yīng)用需求,這就帶來(lái)了硬件利用率不足、集群硬件成本較高等問(wèn)題?,F(xiàn)有技術(shù)也有利用軟件虛擬化技術(shù),將分布式內(nèi)存的集群虛擬為一臺(tái)SMP機(jī)器。 但是,這種技術(shù)在實(shí)際應(yīng)用時(shí),一方面延遲過(guò)長(zhǎng),另一面需要對(duì)應(yīng)用做出一定的針對(duì)性改 動(dòng),不便于普遍推廣應(yīng)用。
發(fā)明內(nèi)容
本發(fā)明所要解決的技術(shù)問(wèn)題是需要提供一種集群系統(tǒng)技術(shù),克服現(xiàn)有技術(shù)中通過(guò) SMP機(jī)器實(shí)現(xiàn)集群系統(tǒng)所存在的硬件利用率不足的缺陷。為了解決上述技術(shù)問(wèn)題,本發(fā)明提供了一種集群系統(tǒng),包括若干臺(tái)物理服務(wù)器,每 臺(tái)物理服務(wù)器內(nèi)包含相互連接的CPU及內(nèi)存,其中每臺(tái)物理服務(wù)器上設(shè)置有專用集成電路以及高速互聯(lián)網(wǎng)絡(luò)接口 ;各物理服務(wù)器上的高速互聯(lián)網(wǎng)絡(luò)接口,用于連接到一高速互聯(lián)網(wǎng)絡(luò);在各物理服務(wù)器內(nèi)部,專用集成電路與CPU及高速互聯(lián)網(wǎng)絡(luò)接口連接;各物理服務(wù)器上的專用集成電路,用于將所述集群系統(tǒng)內(nèi)各物理服務(wù)器的CPU及 內(nèi)存劃分成動(dòng)態(tài)大小的虛擬服務(wù)器。優(yōu)選地,在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)系統(tǒng)總線與CPU連接。優(yōu)選地,在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)PCI-E總線與高速互聯(lián)網(wǎng)絡(luò)接 口連接。優(yōu)選地,所述高速互聯(lián)網(wǎng)絡(luò)包括以太網(wǎng)或無(wú)限帶寬網(wǎng)絡(luò)。為了解決上述技術(shù)問(wèn)題,本發(fā)明還提供了一種集群系統(tǒng)的實(shí)現(xiàn)方法,所述集群系 統(tǒng)包含若干物理服務(wù)器,每臺(tái)物理服務(wù)器內(nèi)包含相互連接的CPU及內(nèi)存,該方法包括如下 步驟在每臺(tái)物理服務(wù)器上設(shè)置專用集成電路以及高速互聯(lián)網(wǎng)絡(luò)接口 ;
將各物理服務(wù)器上的高速互聯(lián)網(wǎng)絡(luò)接口連接到一高速互聯(lián)網(wǎng)絡(luò);在各物理服務(wù)器內(nèi)部,將專用集成電路與CPU及高速互聯(lián)網(wǎng)絡(luò)接口連接;利用各物理服務(wù)器上的專用集成電路,將所述集群系統(tǒng)內(nèi)各物理服務(wù)器的CPU及 內(nèi)存劃分成動(dòng)態(tài)大小的虛擬服務(wù)器。優(yōu)選地,在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)系統(tǒng)總線與CPU連接。優(yōu)選地,在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)PCI-E總線與高速互聯(lián)網(wǎng)絡(luò)接 口連接。優(yōu)選地,所述高速互聯(lián)網(wǎng)絡(luò)包括以太網(wǎng)或無(wú)限帶寬網(wǎng)絡(luò)。本發(fā)明還提供了一種物理服務(wù)器,包含相互連接的CPU及內(nèi)存,還包含專用集成電路,與所述CPU連接;高速互聯(lián)網(wǎng)絡(luò)接口 ;與所述專用集成電路連接,用于將所述物理服務(wù)器連接到一 高速互聯(lián)網(wǎng)絡(luò)。優(yōu)選地,所述專用集成電路通過(guò)系統(tǒng)總線與所述CPU連接;所述高速互聯(lián)網(wǎng)絡(luò)接 口與所述專用集成電路通過(guò)PCI-E總線連接。與現(xiàn)有技術(shù)相比,本發(fā)明利用專用集成電路(Application-specificintegrated circuit, ASIC)將物理服務(wù)器的CPU和內(nèi)存劃分成動(dòng)態(tài)大小的虛擬服務(wù)器,也可將多臺(tái)物 理服務(wù)器的硬件資源整合在一起,令一個(gè)分布式內(nèi)存的集群變成一個(gè)或多個(gè)SMP機(jī)器,以 解決數(shù)據(jù)中心領(lǐng)域硬件利用率不足和現(xiàn)有虛擬化方案的局限。本發(fā)明的其它特征和優(yōu)點(diǎn)將在隨后的說(shuō)明書中闡述,并且,部分地從說(shuō)明書中變 得顯而易見(jiàn),或者通過(guò)實(shí)施本發(fā)明而了解。本發(fā)明的目的和其他優(yōu)點(diǎn)可通過(guò)在說(shuō)明書、權(quán)利 要求書以及附圖中所特別指出的結(jié)構(gòu)來(lái)實(shí)現(xiàn)和獲得。
附圖用來(lái)提供對(duì)本發(fā)明技術(shù)方案的進(jìn)一步理解,并且構(gòu)成說(shuō)明書的一部分,與本 發(fā)明的實(shí)施例一起用于解釋本發(fā)明的技術(shù)方案,并不構(gòu)成對(duì)本發(fā)明技術(shù)方案的限制。在附 圖中圖1是本發(fā)明實(shí)施例的一種集群系統(tǒng)的組成示意圖;圖2是本發(fā)明實(shí)施例的一種集群系統(tǒng)的實(shí)現(xiàn)方法的流程示意圖。
具體實(shí)施例方式以下將結(jié)合附圖及實(shí)施例來(lái)詳細(xì)說(shuō)明本發(fā)明的實(shí)施方式,借此對(duì)本發(fā)明如何應(yīng)用 技術(shù)手段來(lái)解決技術(shù)問(wèn)題,并達(dá)成技術(shù)效果的實(shí)現(xiàn)過(guò)程能充分理解并據(jù)以實(shí)施。首先,如果不沖突,本發(fā)明實(shí)施例以及實(shí)施例中的各個(gè)特征的相互結(jié)合,均在本發(fā) 明的保護(hù)范圍之內(nèi)。另外,在附圖的流程圖示出的步驟可以在諸如一組計(jì)算機(jī)可執(zhí)行指令 的計(jì)算機(jī)系統(tǒng)中執(zhí)行,并且,雖然在流程圖中示出了邏輯順序,但是在某些情況下,可以以 不同于此處的順序執(zhí)行所示出或描述的步驟。實(shí)施例一、一種集群系統(tǒng)如圖1所示,在實(shí)施例中,每臺(tái)物理服務(wù)器10的主板上設(shè)置有專用集成電路 (Application-specific integrated circuit, ASIC) 20 以及高速互聯(lián)網(wǎng)絡(luò)接口 30,在各物理服務(wù)器內(nèi)部,ASIC 20通過(guò)系統(tǒng)總線與CPU 40連接并進(jìn)行通信,通過(guò)PCI-E總線與高速互 聯(lián)網(wǎng)絡(luò)接口 30連接。各物理服務(wù)器10上的ASIC 20,用于根據(jù)應(yīng)用需求,將集群系統(tǒng)內(nèi)的 各物理服務(wù)器的CPU 40和內(nèi)存50(在各物理服務(wù)器內(nèi)部,內(nèi)存50通過(guò)系統(tǒng)總線與CPU 40 連接)劃分成動(dòng)態(tài)大小的虛擬服務(wù)器。需要說(shuō)明的是,ASIC 20與高速互聯(lián)網(wǎng)絡(luò)接口 30及 CPU 40之間,以及CPU 40與內(nèi)存50之間,也可以通過(guò)其他方式連接,本實(shí)施例所提供的連 接方式是一種較佳的選擇。各物理服務(wù)器10上設(shè)置的高速互聯(lián)網(wǎng)絡(luò)接口 30,用于將物理服務(wù)器10連接到一 高速互聯(lián)網(wǎng)絡(luò)60上,如此,各物理服務(wù)器10通過(guò)高速互聯(lián)網(wǎng)絡(luò)60連接在一起,形成一高速 互聯(lián)的集群系統(tǒng),實(shí)現(xiàn)了將多臺(tái)物理服務(wù)器的硬件資源整合在一起,使得一個(gè)分布式內(nèi)存 的集群系統(tǒng)變成一個(gè)或多個(gè)SMP機(jī)器。同時(shí),也保證了集群系統(tǒng)中每臺(tái)物理服務(wù)器的內(nèi)存 一致性,使得分布式內(nèi)存的集群系統(tǒng)能夠獲得傳統(tǒng)的大型SMP系統(tǒng)的工作效果,卻無(wú)需像 傳統(tǒng)大型SMP系統(tǒng)那樣采用定制化的硬件。在本實(shí)施例中,高速互聯(lián)網(wǎng)絡(luò)60比如可以為以太網(wǎng)或無(wú)限帶寬(InfinibancbIB) 網(wǎng)絡(luò),相應(yīng)地,每臺(tái)物理服務(wù)器內(nèi)部的高速互聯(lián)網(wǎng)絡(luò)接口為以太網(wǎng)接口或者IB網(wǎng)絡(luò)接口。實(shí)施例二、一種集群系統(tǒng)的實(shí)現(xiàn)方法結(jié)合圖1所示的集群系統(tǒng)實(shí)施例,圖2所示的本實(shí)施例主要包括如下步驟步驟S210,在每臺(tái)物理服務(wù)器的主板上分別設(shè)置ASIC及高速互聯(lián)網(wǎng)絡(luò)接口 ;步驟S220,在各物理服務(wù)器內(nèi)部,ASIC與CPU之間通過(guò)系統(tǒng)總線連接,ASIC與高 速互聯(lián)網(wǎng)絡(luò)接口之間通過(guò)PCI-E總線連接;步驟S230,將各物理服務(wù)器上的高速互聯(lián)網(wǎng)絡(luò)接口連接到一高速互聯(lián)網(wǎng)絡(luò)上;步驟S240,利用各物理服務(wù)器上的ASIC,根據(jù)應(yīng)用需求將集群系統(tǒng)內(nèi)各物理服務(wù) 器的CPU和內(nèi)存整體劃分成動(dòng)態(tài)大小的虛擬服務(wù)器;其中,各物理服務(wù)器內(nèi)部的CPU和內(nèi)存 之間通過(guò)系統(tǒng)總線連接。需要說(shuō)明的是,本實(shí)施例中的上述各步驟之間,并沒(méi)有邏輯上的先后順序。比如, 步驟S220可以在步驟S230之后進(jìn)行,或者與步驟S230同步進(jìn)行,等等。本發(fā)明技術(shù)方案通過(guò)ASIC和高速網(wǎng)絡(luò),使得集群系統(tǒng)中每臺(tái)物理服務(wù)器的內(nèi)存 皆可以提供同等的計(jì)算能力,克服了現(xiàn)有技術(shù)采用SMP機(jī)器使得系統(tǒng)成本高昂的不足,并 且也克服了現(xiàn)有的軟件虛擬化技術(shù)延遲過(guò)長(zhǎng)的缺陷。本發(fā)明中的ASIC,其作用可以視為各物理服務(wù)器中的內(nèi)存的一致性控制器,其允 許不同物理服務(wù)器上運(yùn)行的應(yīng)用能夠同時(shí)讀取或?qū)懭胪粌?nèi)存頁(yè)面。本發(fā)明集群系統(tǒng)中的內(nèi)存和CPU,通過(guò)ASIC和高速互聯(lián)網(wǎng)絡(luò),實(shí)現(xiàn)了不同計(jì)算節(jié) 點(diǎn)的CPU可以直接訪問(wèn)其他計(jì)算節(jié)點(diǎn)的內(nèi)存,使得集群系統(tǒng)整體形成了一個(gè)虛擬化的SMP 服務(wù)器。本領(lǐng)域的技術(shù)人員應(yīng)該明白,上述的本發(fā)明的各模塊或各步驟可以用通用的計(jì)算 裝置來(lái)實(shí)現(xiàn),它們可以集中在單個(gè)的計(jì)算裝置上,或者分布在多個(gè)計(jì)算裝置所組成的網(wǎng)絡(luò) 上,可選地,它們可以用計(jì)算裝置可執(zhí)行的程序代碼來(lái)實(shí)現(xiàn),從而,可以將它們存儲(chǔ)在存儲(chǔ) 裝置中由計(jì)算裝置來(lái)執(zhí)行,或者將它們分別制作成各個(gè)集成電路模塊,或者將它們中的多 個(gè)模塊或步驟制作成單個(gè)集成電路模塊來(lái)實(shí)現(xiàn)。這樣,本發(fā)明不限制于任何特定的硬件和 軟件結(jié)合。
雖然本發(fā)明所揭露的實(shí)施方式如上,但所述的內(nèi)容只是為了便于理解本發(fā)明而采 用的實(shí)施方式,并非用以限定本發(fā)明。任何本發(fā)明所屬技術(shù)領(lǐng)域內(nèi)的技術(shù)人員,在不脫離本 發(fā)明所揭露的精神和范圍的前提下,可以在實(shí)施的形式上及細(xì)節(jié)上作任何的修改與變化, 但本發(fā)明的專利保護(hù)范圍,仍須以所附的權(quán)利要求書所界定的范圍為準(zhǔn)。
權(quán)利要求
1.一種集群系統(tǒng),包括若干臺(tái)物理服務(wù)器,每臺(tái)物理服務(wù)器內(nèi)包含相互連接的CPU及 內(nèi)存,其特征在于每臺(tái)物理服務(wù)器上設(shè)置有專用集成電路以及高速互聯(lián)網(wǎng)絡(luò)接口; 各物理服務(wù)器上的高速互聯(lián)網(wǎng)絡(luò)接口,用于連接到一高速互聯(lián)網(wǎng)絡(luò); 在各物理服務(wù)器內(nèi)部,專用集成電路與CPU及高速互聯(lián)網(wǎng)絡(luò)接口連接; 各物理服務(wù)器上的專用集成電路,用于將所述集群系統(tǒng)內(nèi)各物理服務(wù)器的CPU及內(nèi)存 劃分成動(dòng)態(tài)大小的虛擬服務(wù)器。
2.根據(jù)權(quán)利要求1所述的集群系統(tǒng),其特征在于在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)系統(tǒng)總線與CPU連接。
3.根據(jù)權(quán)利要求1或2所述的集群系統(tǒng),其特征在于在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)PCI-E總線與高速互聯(lián)網(wǎng)絡(luò)接口連接。
4.根據(jù)權(quán)利要求1所述的集群系統(tǒng),其特征在于 所述高速互聯(lián)網(wǎng)絡(luò)包括以太網(wǎng)或無(wú)限帶寬網(wǎng)絡(luò)。
5.一種集群系統(tǒng)的實(shí)現(xiàn)方法,所述集群系統(tǒng)包含若干物理服務(wù)器,每臺(tái)物理服務(wù)器內(nèi) 包含相互連接的CPU及內(nèi)存,其特征在于,該方法包括如下步驟在每臺(tái)物理服務(wù)器上設(shè)置專用集成電路以及高速互聯(lián)網(wǎng)絡(luò)接口; 將各物理服務(wù)器上的高速互聯(lián)網(wǎng)絡(luò)接口連接到一高速互聯(lián)網(wǎng)絡(luò); 在各物理服務(wù)器內(nèi)部,將專用集成電路與CPU及高速互聯(lián)網(wǎng)絡(luò)接口連接; 利用各物理服務(wù)器上的專用集成電路,將所述集群系統(tǒng)內(nèi)各物理服務(wù)器的CPU及內(nèi)存 劃分成動(dòng)態(tài)大小的虛擬服務(wù)器。
6.根據(jù)權(quán)利要求5所述的方法,其特征在于在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)系統(tǒng)總線與CPU連接。
7.根據(jù)權(quán)利要求5或6所述的方法,其特征在于在各物理服務(wù)器內(nèi)部,專用集成電路通過(guò)PCI-E總線與高速互聯(lián)網(wǎng)絡(luò)接口連接。
8.根據(jù)權(quán)利要求5所述的方法,其特征在于 所述高速互聯(lián)網(wǎng)絡(luò)包括以太網(wǎng)或無(wú)限帶寬網(wǎng)絡(luò)。
9.一種物理服務(wù)器,包含相互連接的CPU及內(nèi)存,其特征在于,還包含 專用集成電路,與所述CPU連接;高速互聯(lián)網(wǎng)絡(luò)接口 ;與所述專用集成電路連接,用于將所述物理服務(wù)器連接到一高速 互聯(lián)網(wǎng)絡(luò)。
10.根據(jù)權(quán)利要求9所述的物理服務(wù)器,其特征在于 所述專用集成電路通過(guò)系統(tǒng)總線與所述CPU連接;所述高速互聯(lián)網(wǎng)絡(luò)接口與所述專用集成電路通過(guò)PCI-E總線連接。
全文摘要
本發(fā)明公開(kāi)了一種物理服務(wù)器,及一種集群系統(tǒng)及其實(shí)現(xiàn)方法,克服現(xiàn)有技術(shù)中通過(guò)SMP機(jī)器實(shí)現(xiàn)集群系統(tǒng)所存在的硬件利用率不足的缺陷,其中該集群系統(tǒng)包括若干臺(tái)物理服務(wù)器,每臺(tái)物理服務(wù)器內(nèi)包含CPU及內(nèi)存,還設(shè)置有專用集成電路以及高速互聯(lián)網(wǎng)絡(luò)接口,高速互聯(lián)網(wǎng)絡(luò)接口連接到一高速互聯(lián)網(wǎng)絡(luò),專用集成電路與CPU及高速互聯(lián)網(wǎng)絡(luò)接口連接;各物理服務(wù)器上的專用集成電路,用于將所述集群系統(tǒng)內(nèi)各物理服務(wù)器的CPU及內(nèi)存劃分成動(dòng)態(tài)大小的虛擬服務(wù)器。本發(fā)明利用專用集成電路將物理服務(wù)器的CPU和內(nèi)存劃分成動(dòng)態(tài)大小的虛擬服務(wù)器,以解決數(shù)據(jù)中心領(lǐng)域硬件利用率不足和現(xiàn)有虛擬化方案的局限。
文檔編號(hào)H04L29/08GK102118288SQ20101057037
公開(kāi)日2011年7月6日 申請(qǐng)日期2010年11月26日 優(yōu)先權(quán)日2010年11月26日
發(fā)明者呂文靜, 王渭巍 申請(qǐng)人:浪潮(北京)電子信息產(chǎn)業(yè)有限公司