Linux集群-解析RHCS高可用集群HA及負(fù)載均衡集群LB實(shí)現(xiàn)方法_第1頁
Linux集群-解析RHCS高可用集群HA及負(fù)載均衡集群LB實(shí)現(xiàn)方法_第2頁
Linux集群-解析RHCS高可用集群HA及負(fù)載均衡集群LB實(shí)現(xiàn)方法_第3頁
Linux集群-解析RHCS高可用集群HA及負(fù)載均衡集群LB實(shí)現(xiàn)方法_第4頁
Linux集群-解析RHCS高可用集群HA及負(fù)載均衡集群LB實(shí)現(xiàn)方法_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

Linux集群概述_解析RHCS高可用集群HA及負(fù)載均衡集群LB的實(shí)現(xiàn)方法Linux集群概述集群是個熱門話題,在企業(yè)中越來越多地應(yīng)用Linux操作系統(tǒng)提供郵件、Web、文件存儲、數(shù)據(jù)庫等服務(wù),隨著Linux應(yīng)用的日益增長,高可用及負(fù)載均衡Linux集群也在企業(yè)中逐步地發(fā)展起來。Linux平臺的低成本、高性能、高擴(kuò)展性使得Linux集群能夠以低廉的價格很好地滿足各種應(yīng)用的需求。本文介紹Linux集群的基礎(chǔ)知識,集群的分類。在熟悉集群的基礎(chǔ)知識后會以RHCS(RedHat

Cluster

Suit)為例介紹高可用集群及負(fù)載均衡集群的實(shí)現(xiàn)方法。集群是什么?讓我們先從集群的概念開始介紹Linux集群。將多臺計算機(jī)用特定的軟件及硬件連接在一起,讓它們?yōu)楣餐哪康囟ぷ骶蜆?gòu)成了Linux集群。Linux集群技術(shù)就在你的身邊,可能你并未察覺,對于普通用戶來說,一個Linux集群通常會表現(xiàn)得像單一的系統(tǒng),為用戶提供網(wǎng)絡(luò)服務(wù)或計算服務(wù)。著名的搜索引擎GOOGLE就是采用了Linux集群技術(shù)來處理每日大量的查詢請示,據(jù)估計目前GOOGLE集群中已經(jīng)有超過20000臺計算機(jī)同時進(jìn)行工作。當(dāng)你每次向GOOGLE提交查詢請求的時候,就會有一組不同的計算機(jī)助你檢索信息。據(jù)世界著名的超級計算機(jī)排行網(wǎng)站

2005年6月的數(shù)據(jù)記錄在全球最快的500臺超級計算機(jī)中有288臺采用了Linux集群的方式組建。目前最快的Linux集群超級計算機(jī)是由IBM為巴塞羅那超級計算中心建造的MareNostrum集群,該集群目前在2005年6月top500全球超級計算計中排名第五。集群的主要類型學(xué)習(xí)Linux集群之前我們首先需要了解集群的主要類型及其能夠解決的問題。我們通常會將集群按其用途分為以下的三個主要類型:高可用集群(HA,High

Available

Cluster)高可用集群是指通過特殊軟件把獨(dú)立的服務(wù)器連接起來,組成一個能夠提供故障切換(Failover)功能的集群。企業(yè)中的關(guān)鍵應(yīng)用如WEB服務(wù)、文件服務(wù)、數(shù)據(jù)庫服務(wù)等,通常會要求提供7x24不間斷地連續(xù)提供服務(wù)并且對外不能表現(xiàn)出故障。這就要求承載服務(wù)的系統(tǒng)能夠自動地判斷故障并提供故障恢復(fù)的能力。高可用集群能夠保性系統(tǒng)中關(guān)鍵服務(wù)的可用性以及服務(wù)數(shù)據(jù)的完整性。高可用集群通常會采用可用性來衡量基實(shí)際效果。計算機(jī)系統(tǒng)的可用性是通過平均無故障時間(MTTF)及平均維修時間(MTTR)來度量的,可用性的定義為:MTTF/(MTTF+MTTR)*100%

。根據(jù)可用性我們可以把計算機(jī)系統(tǒng)分為以下幾類:可用性年停機(jī)時間系統(tǒng)類別99.53.7天常規(guī)系統(tǒng)99.98.8小時可用系統(tǒng)99.9952.6分鐘高可用系統(tǒng)99.9995.3分鐘抗故障系統(tǒng)99.999932秒容錯系統(tǒng)Linux高可集群系統(tǒng)通常能夠達(dá)到高可用系統(tǒng)的標(biāo)準(zhǔn)。目前最高級別的容錯系統(tǒng)通常是采用高級的支持硬件容錯的服務(wù)器,容錯系統(tǒng)對硬件故障具有最高級別的可用性支持但是這種系統(tǒng)通常不能夠?qū)Ψ?wù)的軟件故障做出診斷及恢復(fù)。Linux高可用集群系統(tǒng)基本都具備對軟件和硬件故障的探測及恢復(fù)功能。在真實(shí)的企業(yè)應(yīng)用中一般只會將部分關(guān)鍵服務(wù)部署在高可用集群系統(tǒng)上,其它不屬于關(guān)鍵服務(wù)的部分只需要采用普通的服務(wù)器部署即可。所以一般情況下高可用集群系統(tǒng)會包由兩臺服務(wù)器構(gòu)成。目前主要的Linux發(fā)行版本基本都會提供高可用集群組件,主要要的高可用集群決方案有SUSE

采用的HeartBeat

()及RedHat

Cluster

Suit

采用的Kimberlite(/kimberlite/)負(fù)載均衡集群(LB,Load

Balance

Cluster)負(fù)載均衡集群通常采用專門的負(fù)載均衡路由設(shè)備將基于TCP/IP協(xié)議的服務(wù)請求分發(fā)至實(shí)際提供服務(wù)的服務(wù)器中并由這些服務(wù)器為客戶端提供真實(shí)的服務(wù)。負(fù)載均衡集群系統(tǒng)一般多用于負(fù)載較重的網(wǎng)絡(luò)服務(wù)中,如大型的網(wǎng)站、郵件服務(wù)系統(tǒng)等。由于采用了負(fù)載均衡技術(shù),可以使多臺服務(wù)器同時提供相同內(nèi)容的服務(wù),突破了單一服務(wù)器硬件性能的限制。負(fù)載均衡集群中的關(guān)鍵部件就是負(fù)載均衡路由設(shè)備,負(fù)載均衡路由設(shè)備負(fù)責(zé)將真實(shí)客戶端的服務(wù)請求分發(fā)至真實(shí)服務(wù)器上,一般可采用的方法有使用硬件負(fù)載均衡路由設(shè)備或使用Linux自己配置負(fù)載均衡路由器。硬件負(fù)載均衡路由設(shè)備由于采用了特殊的硬件結(jié)構(gòu)及專門開發(fā)的配置軟件,通常易于配置及管理,性能較好,但是其價格較高在Linux中最常使用的負(fù)載均衡路由軟件是由章文嵩博士開發(fā)的LVS(Linux

Virtual

Server)項目。LVS能夠?qū)崿F(xiàn)目前大部分硬件負(fù)載均衡路由設(shè)備的功能。目前基于Linux平臺負(fù)載均衡解決方案大都是采用了LVS或其衍生產(chǎn)品。由于LVS項目本身未提供負(fù)載均衡路由的高可用功能、真實(shí)服務(wù)器狀態(tài)探測功能等,所以在實(shí)際配置負(fù)載均衡集群時通常會采用LVS的衍生產(chǎn)品。常見的LVS衍生產(chǎn)品主要有UltraMonkey

(/)及RedHat的Piranha項目。高性能計算集群(HPC,

High

Performance

Computing)高性能計算是計算機(jī)科學(xué)的一個分支,它致力于開發(fā)超級計算機(jī),研究并行算法和開發(fā)相關(guān)軟件。高性能計算集群系統(tǒng)通常會采用價格昂貴的專用高速網(wǎng)絡(luò)連接集群內(nèi)的計算機(jī),在集群內(nèi)部使用專門編寫的軟件來進(jìn)行高速的運(yùn)算。高性能計算主要用于大規(guī)模科學(xué)計算,如天氣預(yù)報、地形分析和生物制藥、基因測序等領(lǐng)域。為什么使用Linux構(gòu)建集群系統(tǒng)?目前大多數(shù)的集群系統(tǒng)都是以Linux做為操作系統(tǒng)平臺,之所以大家都選擇Linux來構(gòu)建集群系統(tǒng)是因?yàn)長inux系統(tǒng)具有以下優(yōu)點(diǎn)低成本Linux集群的低成本主要體現(xiàn)在兩個方面,首先Linux平臺及其軟件大部分基于GPL或其它開放源代碼協(xié)議發(fā)布,這些協(xié)議對于最終用戶是完全免費(fèi)的。幾乎所有的集群類型都可以在Linux平臺上找到免費(fèi)的解決方案。另外由于Linux對各種硬件平臺的廣泛支持,使得使用Linux

在一些比較舊的機(jī)器上構(gòu)建集群成為可能,即使使用新的硬件,Linux也可以在廉價的X86平臺上構(gòu)建高性能的集群。高擴(kuò)展性高擴(kuò)展性首先表現(xiàn)在對不同硬件及硬件平臺的支持上,使用Linux制作集群可以構(gòu)建多種平臺的異構(gòu)集群,同時可以使用各種硬件對現(xiàn)有集群進(jìn)行擴(kuò)充。另外Linux的高擴(kuò)展性還體現(xiàn)在集群軟件上,由于Linux平臺上的大部分軟件都是基于開源協(xié)議發(fā)布,所以可以對現(xiàn)有軟件進(jìn)行各種改造,使其能夠在現(xiàn)有的環(huán)境下最大限度的發(fā)揮功能,這種可擴(kuò)展性在商業(yè)化操作系統(tǒng)上是不可能具備的。高性能Linux最值得稱道的特征之一就是Linux的高性能,在Linux系統(tǒng)中可以調(diào)節(jié)各種操作系統(tǒng)的參數(shù)以提高系統(tǒng)性能,并為特殊應(yīng)用進(jìn)行優(yōu)化。Linux系統(tǒng)強(qiáng)大的可訂定性也決定了Linux可以將不必要的系統(tǒng)功能禁用,同時提高需要用到服務(wù)的性能。RedHat

集群套件(RHCS,RedHat

Cluster

Suit)簡介本章將會以RHCS

3.0為基礎(chǔ)向讀者介紹基于Linux的高可用及負(fù)載均衡集群的配置方法。RHCS是由RedHat發(fā)布的用于RHEL(RedHat

Enterprise

Linux)的集群產(chǎn)品。RHCS必需與RHEL配合使用,RHCS共提供了兩種組件,分別支持兩種不同類型集群,其中RHCM(RedHat

Cluster

Manager)提供了高可用集群的支持,Piranha提供了基于LVS的負(fù)載均衡集群的支持。RHCS

3.0中的RHCM是RedHat的一個開源的高可用集群項目。RHCM基于開源的Kimberlite(/kimberlite/)項目,同時加入了HeartBeat

()項目的一些先進(jìn)特征。做為RedHat的一款商業(yè)產(chǎn)品,在提供完備的商業(yè)支持及RHEL完全兼容的同時,RHCS比其它的開源高可用項目提供了更加完備易用的圖形化配置及管理界面。RHCM提供了許多先進(jìn)技術(shù)特征,包括圖形及命令行的集群配置及監(jiān)控工具,無單一故障點(diǎn)配置支持、容錯域支持、數(shù)據(jù)完性保證、服務(wù)狀態(tài)自動監(jiān)控及手動服務(wù)遷移功能。另外RHCM中還提供了高可用NFS及SAMBA配置向?qū)Чδ?,使得配置NFS或SAMBA高可用文件服務(wù)器在幾分鐘之內(nèi)就可以完成。Piranha項目是基于LVS的開源負(fù)載均衡集群項目,在LVS提供負(fù)載均衡基礎(chǔ)上,Piranha項目還提供了WEB界面配置功能、負(fù)載均衡路由器的高可用功能、真實(shí)服務(wù)器服務(wù)狀態(tài)監(jiān)控功能,大大簡化了LVS配置和管理的難度。配置RHCM高可用集群我們將以RHCS的高可用使群組件RHCM為基礎(chǔ),一步步地進(jìn)行高可用集群的配置,在這部分中我們將會學(xué)到高可用集群的基礎(chǔ)知識,如何為RHCM訂制RHEL安裝,如何安裝并配置基于RHCM的高可用集群。高可用集群的基礎(chǔ)知識高可用集群通常由一個或多個結(jié)點(diǎn)(服務(wù)器)及共享存儲設(shè)備構(gòu)成,集群間各成員相互監(jiān)控軟、硬件的狀態(tài),一旦服務(wù)器硬件或服務(wù)發(fā)生故障則集群控制軟件會依照基配置將服務(wù)切換至另一臺服務(wù)器繼續(xù)運(yùn)行。根據(jù)高可用集群的結(jié)構(gòu)我們一般可將高可用集群分為三種類型:主從式、對稱式和集群式。主從方式的HA集群由兩個結(jié)點(diǎn)構(gòu)成,其中一臺為主服務(wù)器,運(yùn)行服務(wù),另一臺服務(wù)器為從服務(wù)器為主服務(wù)器提供備份。主從方式中主服務(wù)器可運(yùn)行一個或多個服務(wù),從服務(wù)器隨時監(jiān)視主服務(wù)器軟硬件狀態(tài),如果主服務(wù)器發(fā)生故障則主服務(wù)器上運(yùn)行的服務(wù)會由主服務(wù)器遷移至從服務(wù)器繼續(xù)運(yùn)行。主從方式能夠提供較高級別的可用性但由于從服務(wù)器專門用于備份,正常時不對外提供服務(wù)所以資源利用率較低。對稱方式的HA集群也由兩個結(jié)點(diǎn)構(gòu)成,兩臺服務(wù)器可各自運(yùn)行一個或多個服務(wù),兩臺服務(wù)器在運(yùn)行時相互監(jiān)視軟硬件狀態(tài),如果發(fā)生故障則服務(wù)會遷移至另一臺服務(wù)器運(yùn)行。對稱方式中兩臺機(jī)器同時對外提供服務(wù),在提供高可用性的同時也提供了較高的資源利用率集群方式的HA集群由多個結(jié)點(diǎn)構(gòu)成,每節(jié)點(diǎn)可各自運(yùn)行一個或多個服務(wù),集群中的成員相互監(jiān)視軟硬件狀態(tài),如發(fā)現(xiàn)故障則服務(wù)可在集群成員間進(jìn)行切換。為集群系統(tǒng)安裝并配置RHEL在安裝RHCS前我們需要首先應(yīng)安裝并配置RHEL,目前RHCS

3.0

支持RHEL

3.0

AS

及WS

版本的操作系統(tǒng)。我們以兩結(jié)點(diǎn)為例說明RHEL初始安裝及配置方法。安裝RHEL前首先需確認(rèn)所使用的硬件與RHEL及RHCS兼容,硬件的兼容信息可從RedHat官方網(wǎng)站的硬件兼容性列表中獲得。其次在安裝前需確認(rèn)硬件配置正常,硬件相關(guān)的配置信息請查看硬件廠商提供的文檔。在準(zhǔn)備安裝階段需要確定Linux的網(wǎng)絡(luò)配置、硬盤分區(qū)設(shè)置、root用戶口令等安裝時需要設(shè)定的配置。在安裝過程中請確定選擇了NFS及SAMBA服務(wù)器相關(guān)的軟件包以確保示例的集群配置能夠正常工作。安裝完成后重新啟動系統(tǒng)開始進(jìn)行RHEL的初始化配置。我們將以兩節(jié)點(diǎn)的高可用集群為例來說明集群的配置方法,在配置示例中兩個節(jié)點(diǎn)的主機(jī)名分別為node1和node2,IP地址分別為1和2,節(jié)點(diǎn)的默認(rèn)網(wǎng)關(guān)為。操作系統(tǒng)安裝完成后首先需要編輯/boot/grub/grub.conf文件降低系統(tǒng)啟動的等待時間,一般的情況下可將默認(rèn)的timeout值改為10秒。該配置需要在每臺成員服務(wù)器上執(zhí)行。[root@nod1

root]#

cat

/boot/grub/grub.conf#

grub.conf

generated

by

anaconda##

Note

that

you

do

not

have

to

rerun

grub

after

making

changes

to

this

file#

NOTICE:

You

have

a

/boot

partition.

This

means

that#

all

kernel

and

initrd

paths

are

relative

to

/boot/,

eg.#

root

(hd0,0)#

kernel

/vmlinuz-version

ro

root=/dev/sda2#

initrd

/initrd-version.img#boot=/dev/sdadefault=0timeout=10splashimage=(hd0,0)/grub/splash.xpm.gztitle

Red

Hat

Enterprise

Linux

AS

(2.4.21-32.EL)

root

(hd0,0)

kernel

/vmlinuz-2.4.21-32.EL

ro

root=LABEL=/

initrd

/initrd-2.4.21-32.EL.img為了防止因DNS服務(wù)器故障導(dǎo)致集群工作不正常一般情況下建議在/etc/hosts文件中加入所有結(jié)點(diǎn)的IP地址。配置完成后在所有成員結(jié)點(diǎn)上執(zhí)行ping命令測試網(wǎng)絡(luò)連通性以確保網(wǎng)絡(luò)設(shè)備正常工作,/etc/hosts文件配置正確。該配置需要在每臺成員服務(wù)器上執(zhí)行。[root@node1

root]#

cat

/etc/hosts#

Do

not

remove

the

following

line,

or

various

programs#

that

require

network

functionality

will

fail.localhost.localdomain

localhost1node12node2[root@node1

root]#

ping

-c

1

node1PING

node1

(1)

56(84)

bytes

of

data.64

bytes

from

node1

(1):

icmp_seq=0

ttl=64

time=0.871

ms---

node1

ping

statistics

---1

packets

transmitted,

1

received,

0%

packet

loss,

time

0msrtt

min/avg/max/mdev

=

0.871/0.871/0.871/0.000

ms,

pipe

2[root@node1

root]#

ping

-c

1

node2PING

node2

(2)

56(84)

bytes

of

data.64

bytes

from

node2

(2):

icmp_seq=0

ttl=64

time=2.10

ms---

node2

ping

statistics

---1

packets

transmitted,

1

received,

0%

packet

loss,

time

0msrtt

min/avg/max/mdev

=

2.103/2.103/2.103/0.000

ms,

pipe

2[root@node1

root]#

ping

-c

1

PING

()

56(84)

bytes

of

data.64

bytes

from

:

icmp_seq=0

ttl=64

time=1.51

ms---

ping

statistics

---1

packets

transmitted,

1

received,

0%

packet

loss,

time

0msrtt

min/avg/max/mdev

=

1.510/1.510/1.510/0.000

ms,

pipe

2[root@node2

root]#

ping

-c

1

node1PING

node1

(1)

56(84)

bytes

of

data.64

bytes

from

node1

(1):

icmp_seq=0

ttl=64

time=0.536

ms---

node1

ping

statistics

---1

packets

transmitted,

1

received,

0%

packet

loss,

time

0msrtt

min/avg/max/mdev

=

0.536/0.536/0.536/0.000

ms,

pipe

2[root@node2

root]#

ping

-c

1

node2PING

node2

(2)

56(84)

bytes

of

data.64

bytes

from

node2

(2):

icmp_seq=0

ttl=64

time=0.131

ms---

node2

ping

statistics

---1

packets

transmitted,

1

received,

0%

packet

loss,

time

0msrtt

min/avg/max/mdev

=

0.131/0.131/0.131/0.000

ms,

pipe

2[root@node2

root]#

ping

-c

1

PING

()

56(84)

bytes

of

data.64

bytes

from

:

icmp_seq=0

ttl=64

time=0.778

ms---

ping

statistics

---1

packets

transmitted,

1

received,

0%

packet

loss,

time

0msrtt

min/avg/max/mdev

=

0.778/0.778/0.778/0.000

ms,

pipe

2在每臺成員服務(wù)器上測試將要配置在的服務(wù)確保服務(wù)在每個成員結(jié)點(diǎn)都能夠正常啟動。該測試需要在每臺成員服務(wù)器上執(zhí)行。[root@node1

root]#

service

nfs

startStarting

NFS

services:

[

OK

]Starting

NFS

quotas:[

OK

]Starting

NFS

daemon:[

OK

]Starting

NFS

mountd:[

OK

]

[root@node1

root]#

service

smb

startStarting

SMB

services:[

OK

]Starting

NMB

services:[

OK

]測試完成后關(guān)閉服務(wù),并確保服務(wù)不會自動啟動,因?yàn)樵诟呖捎眉褐蟹?wù)是由集群軟件進(jìn)行控制的。該測試需要在每臺成員服務(wù)器上執(zhí)行。[root@node1

root]#

service

nfs

stopShutting

down

NFS

mountd:

[

OK

]Shutting

down

NFS

daemon:

[

OK

]Shutting

down

NFS

quotas:

[

OK

]Shutting

down

NFS

services:

[

OK

][root@node1

root]#

service

smb

stopShutting

down

SMB

services:

[

OK

]Shutting

down

NMB

services:

[

OK

][root@node1

root]#

chkconfig

nfs

off[root@node1

root]#

chkconfig

smb

off結(jié)點(diǎn)安裝完成后需配置共享存儲設(shè)備,共享存儲設(shè)備多為SCSI設(shè)備或光纖設(shè)備,請按照相關(guān)的硬件廠商文檔進(jìn)行安裝。硬件正常安裝后需要對共享存儲設(shè)備進(jìn)行分區(qū),共享存儲設(shè)備用于存放服務(wù)所需使用的數(shù)據(jù)。在對共享存儲進(jìn)行分區(qū)時需要首先分兩個10M大小的分區(qū)做為裸設(shè)備供高可用集群使用,另外建議每服務(wù)的數(shù)據(jù)使用一個分區(qū)來存放數(shù)據(jù),具體分區(qū)如下所示。該配置只需要在一臺成員服務(wù)器上執(zhí)行。[root@node1

root]#

fdisk

/dev/sdbDevice

contains

neither

a

valid

DOS

partition

table,

nor

Sun,

SGI

or

OSF

disklabelBuilding

a

new

DOS

disklabel.

Changes

will

remain

in

memory

only,until

you

decide

to

write

them.

After

that,

of

course,

the

previouscontent

won't

be

recoverable.Warning:

invalid

flag

0x0000

of

partition

table

4

will

be

corrected

by

w(rite)Command

(m

for

help):

nCommand

action

e

extended

p

primary

partition

(1-4)pPartition

number

(1-4):

1First

cylinder

(1-522,

default

1):Using

default

value

1Last

cylinder

or

+size

or

+sizeM

or

+sizeK

(1-522,

default

522):

+10MCommand

(m

for

help):

nCommand

action

e

extended

p

primary

partition

(1-4)pPartition

number

(1-4):

2First

cylinder

(3-522,

default

3):Using

default

value

3Last

cylinder

or

+size

or

+sizeM

or

+sizeK

(3-522,

default

522):

+10MCommand

(m

for

help):

nCommand

action

e

extended

p

primary

partition

(1-4)pPartition

number

(1-4):

3First

cylinder

(5-522,

default

5):Using

default

value

5Last

cylinder

or

+size

or

+sizeM

or

+sizeK

(5-522,

default

522):

+1000MCommand

(m

for

help):

nCommand

action

e

extended

p

primary

partition

(1-4)pSelected

partition

4First

cylinder

(128-522,

default

128):Using

default

value

128Last

cylinder

or

+size

or

+sizeM

or

+sizeK

(128-522,

default

522):

+100MCommand

(m

for

help):

wThe

partition

table

has

been

altered!Calling

ioctl()

to

re-read

partition

table.Syncing

disks.在上述示例中我們共分了四個分區(qū),其中sdb1、sdb2為兩個10M的分區(qū)需配置為裸設(shè)備,sdb3、sdb4分別為兩個1G的分區(qū),分別供NFS及SAMBA服務(wù)存放數(shù)據(jù)使用。分區(qū)完成后重啟計算機(jī)并在每臺服務(wù)器上執(zhí)行fdisk

–l以確定各結(jié)點(diǎn)能夠正確識別磁盤及其分區(qū)設(shè)備。[root@node1

root]#

fdisk

-lDisk

/dev/sda:

4294

MB,

4294967296

bytes255

heads,

63

sectors/track,

522

cylindersUnits

=

cylinders

of

16065

*

512

=

8225280

bytes

Device

Boot

Start

End

Blocks

Id

System/dev/sda1

*

1

13

104391

83

Linux/dev/sda2

14

490

3831502+

83

Linux/dev/sda3

491

522

257040

82

Linux

swapDisk

/dev/sdb:

4294

MB,

4294967296

bytes255

heads,

63

sectors/track,

522

cylindersUnits

=

cylinders

of

16065

*

512

=

8225280

bytes

Device

Boot

Start

End

Blocks

Id

System/dev/sdb1

1

2

16033+

83

Linux/dev/sdb2

3

4

16065

83

Linux/dev/sdb3

5

127

987997+

83

Linux/dev/sdb4

128

140

104422+

83

Linux分區(qū)完成后將在共享數(shù)據(jù)分區(qū)上創(chuàng)建EXT3文件系統(tǒng)。[root@node1

RPMS]#

mkfs

-t

ext3

/dev/sdb3mke2fs

1.32

(09-Nov-2002)Filesystem

label=OS

type:

LinuxBlock

size=4096

(log=2)Fragment

size=4096

(log=2)123648

inodes,

246999

blocks12349

blocks

(5.00%)

reserved

for

the

super

userFirst

data

block=08

block

groups32768

blocks

per

group,

32768

fragments

per

group15456

inodes

per

groupSuperblock

backups

stored

on

blocks:

32768,

98304,

163840,

229376Writing

inode

tables:

doneCreating

journal

(4096

blocks):

doneWriting

superblocks

and

filesystem

accounting

information:

doneThis

filesystem

will

be

automatically

checked

every

21

mounts

or180

days,

whichever

comes

first.

Use

tune2fs

-c

or

-i

to

override.[root@node1

RPMS]#

mkfs

-t

ext3

/dev/sdb4mke2fs

1.32

(09-Nov-2002)Filesystem

label=OS

type:

LinuxBlock

size=1024

(log=0)Fragment

size=1024

(log=0)26208

inodes,

104422

blocks5221

blocks

(5.00%)

reserved

for

the

super

userFirst

data

block=113

block

groups8192

blocks

per

group,

8192

fragments

per

group2016

inodes

per

groupSuperblock

backups

stored

on

blocks:

8193,

24577,

40961,

57345,

73729Writing

inode

tables:

doneCreating

journal

(4096

blocks):

doneWriting

superblocks

and

filesystem

accounting

information:

doneThis

filesystem

will

be

automatically

checked

every

29

mounts

or180

days,

whichever

comes

first.

Use

tune2fs

-c

or

-i

to

override.配置完共享存儲的分區(qū)后,需要配置裸設(shè)備供集群服務(wù)使用,裸設(shè)備在系統(tǒng)中的服務(wù)名稱叫做rawdevices,配置文件存為/etc/sysconfig/rawdevices,我們需更改rawdevices的配置文件并,將文rawdevices服務(wù)重啟,并將rawdevices配置為自動啟動。Rawdevices配置文件需在每節(jié)點(diǎn)上保持一致。該配置需要在每臺成員服務(wù)器上執(zhí)行。[root@node1

root]#

cat

/etc/sysconfig/rawdevices#

raw

device

bindings#

format:

#

#

example:

/dev/raw/raw1

/dev/sda1#

/dev/raw/raw2

8

5/dev/raw/raw1

/dev/sdb1/dev/raw/raw2

/dev/sdb2[root@node1

root]#

service

rawdevices

restartAssigning

devices:

/dev/raw/raw1

-->

/dev/sdb1/dev/raw/raw1:

bound

to

major

8,

minor

17

/dev/raw/raw2

-->

/dev/sdb2/dev/raw/raw2:

bound

to

major

8,

minor

18done安裝RHCS高可用集群及負(fù)載均衡集群軟件包在完成操作系統(tǒng)基礎(chǔ)配置后,需要安裝RHCS軟件包。在服務(wù)器的光驅(qū)中放入RHCS安裝光盤,掛載CDROM并執(zhí)行CDROM下的安裝腳本。安裝程序會彈出圖形化的安裝界面。如果在文本界面下操作則需使用RPM命令手工安裝。圖形界面安裝如下所示:[root@node1

root]#

mount

/mnt/cdrom/[root@node1

root]#

/mnt/cdrom/autorun

&點(diǎn)擊Forward繼續(xù)選中Red

Hat

Cluster

Suite,

點(diǎn)擊Details確定選中了四個主要的軟件包點(diǎn)擊Forward繼續(xù)。確定安裝了圖中所示的四個軟件包,點(diǎn)Forward繼續(xù)。點(diǎn)擊Finish完成安裝。手工安裝所需命令如下所示:[root@node1

RPMS]#

rpm

-ivh

piranha-0.7.10-2.i386.rpm

ipvsadm-1.21-9.ipvs108.i386.rpm

clumanager--1.i386.rpm

redhat-config-cluster-1.0.7-1.noarch.rpmwarning:

piranha-0.7.10-2.i386.rpm:

V3

DSA

signature:

NOKEY,

key

ID

db42a60ePreparing...############################

[100%]

1:clumanager#############################

[

25%]

2:ipvsadm#############################

[

50%]

3:piranha#############################

[

75%]

4:redhat-config-cluster##########################

[100%]我們可以看到RHCS安裝光盤中最主要的四個軟件包為:clumanager高可用集群組件的核心軟件包redhat-config-cluster圖形化高可用集群配置工具ipvsadmLVS官方命令行配置工具piranha負(fù)載均衡集群核心軟件包及配置工具。配置RHCS高可用NFS文件服務(wù)器本節(jié)我們將以NFS高可用文件服務(wù)器為例說明如何配置高可用集群。在開始配置前請確定每臺成員服務(wù)器上都安裝了上一節(jié)提到的四個主要的軟件包。首先在node1上啟動集群配置工具[root@node1

RPMS]#

cluster-config

&點(diǎn)擊菜單中的Cluster=>Shared

state彈出裸設(shè)備配置,確定后點(diǎn)OK點(diǎn)擊Members標(biāo)簽頁并點(diǎn)擊New按鈕為集群加入所有成員服務(wù)器。在Member

Name中填入成員服務(wù)器的主機(jī)名,關(guān)閉Software

Watchdog,點(diǎn)擊Ok保存配置。每個成員服務(wù)器都需要加入。配置完成員結(jié)點(diǎn)后我們開始配置高可用NFS文件服務(wù)器,點(diǎn)擊菜單中的Add

Exports=>NFS啟動NFS配置向?qū)c(diǎn)擊Forward繼續(xù)在Export

Directory中填入要共

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論