一.作業環境介紹: 
項 目 主機名稱 OS版本   IP        說明 
 一 Storage RHEL4U1 192.168.1.40 作為Shared Disk使用 
 二 Node1 RHEL4U1 192.168.1.41 Cluster的節點一 
 三 Node1 RHEL4U1 192.168.1.42 Cluster的節點二 
二.目地: 
 由於實作Cluster環境通常都需要有Share Disk,而Share Disk都須要購買 
DiskArray,但如果只是要測試,可以使用iSCSI方式來練習,所以我們將以 
iSCSI方式來模擬,但須要注意OS,最好是拿RHEL 3版本或以上來練習,雖然版 
本2就有支援,可是相關Cluster軟體在版本3或以上才比較穩定。 
三.安裝方式介紹: 
《介紹iSCSI Target安裝》 
在storage主機上: 
# tar zxvf iscsitarget-0.4.5.tar.gz 
# cd iscsitarget-0.4.5 
# export KERNELSRC=/usr/src/kernels/<kernel version> 
(我使用的是2.6.9-11.EL-i686這一個Kernel) 
# make && make install(開始進行編譯及安裝) 
※確定沒有出現錯誤,再進行下一步 
# grep –v ‘#’ etc/ietd.conf > /etc/ietd.conf 
# vi /etc/ietd.conf 
※請注意必須先分割一塊空間當作Share Disk使用,並且不可以Mount進行,我 
 這邊使用的是/dev/sda3這一個分割區修改內容如以下所示: 
    1.Target iqn.2007-03.unix-like.idv.tw:storage.disk1.sys1.xyz 
    2.Lun 0 /dev/sda3 fileio 
    3.Alias Test 
# /etc/init.d/iscsi-target start 
# chkconfig iscsi-target on 
# dmesg(查看是否有以下訊息) 
    iSCSI Enterprise Target Software - version 0.4.5 
    iotype_init(91) register fileio 
    target_param(109) d 1 8192 262144 65536 2 20 8 0 
《Node1 & Node2安裝iSCSI Initiator》 
在Node1: 
# rpm –Uvh mkinitrd-4.2.1.6-1.i386.rpm 
(請使用昇級方式來安裝mkinitrd) 
# rpm –ivh kernel-2.6.9-42.EL.i686.rpm 
(請重新開機,並選擇這個Kernel登入) 
# rpm –ivh sysfsutils-1.2.0-1.i386.rpm 
# rpm –ivh iscsi-initiator-utils-4.0.3.0-2.i386.rpm 
# vi /etc/iscsi.conf(修改內容如下) 
  #DiscoveryAddress=10.4.100.0 
  DiscoveryAddress=192.168.1.40(只須增加這一行,IP為Storage的IP) 
  # or 
  #DiscoveryAddress=10.4.100.1:3260 
# service iscsi start 
# chkconfig iscsi on 
# fdisk –l 或 cat /proc/scsi/scsi 
(檢查是否有多出顆硬碟) 
※請先分割一個區塊並且格式化,我們切割一塊500 MB,名稱為/dev/sdb1 
# mkdir /nfsdata 
(測試使用) 
# mount /dev/sdb1 /nfsdata 
(確定是否可以產生檔案) 
# umount /nfs_data 
※請在Node2節點上做相同步驟 
《Node1 & Node2安裝Cluster》 
在Node1上: 
# rpm –ivh magma-1.0.6-0.i686.rpm 
# rpm –ivh ccs-1.0.7-0.i686.rpm 
# rpm –ivh cman-kernel-2.6.9-45.2.i686.rpm 
# rpm –ivh cman-1.0.11-0.i686.rpm 
# rpm –ivh dlm-kernel-2.6.9-42.10.i686.rpm 
# rpm –ivh dlm-1.0.1-1.i686.rpm 
# rpm –ivh gulm-1.0.7-0.i686.rpm 
# rpm –ivh perl-Net-Telnet-3.03-3.noarch.rpm 
# rpm –ivh fence-1.32.25-1.i686.rpm 
# rpm –ivh iddev-2.0.0-3.i686.rpm 
# rpm –ivh magma-plugins-1.0.9-0.i386.rpm 
# rpm –ivh rgmanager-1.9-53-0.i386.rpm 
# rpm –ivh system-config-cluster-1.0.27-1.0.noarch.rpm 
※請在Node2節點上做相同步驟 
《在Node1上設定NFS Cluster》 
# system-config-cluster 
※建議當第一次進來,會詢問是否建立新的設定檔,請先按下『Create New   
 Configuration』,並且馬上儲存離開 
# vi /etc/cluster/cluster.conf 
(修改名稱如:Cluster1) 
# system-config-cluster 
請依照下面方式輸入相關資料 
1.在【Cluster+Cluster Nodes】,選擇“Add a Cluster Node”,將Node1及 
 Node2的FQDN完整名稱輸入 
2.在【Cluster+Fence Devices】,選擇“Add a Fence Device”,請選 
 擇“Manual Fencing”種類,再輸入名稱“NPS” 
3.在【Cluster+Cluster Nodes】,選擇“節點1”,請選擇“Fence 
 Configuration”,進去後,再選擇“Add a New Fence Level”,會增加一 
 個“Fence-Level-1”項目,再點選擇這個項目,選擇“Add a New Fence to 
 this Level”,再按下OK,節點2也是相同做法 
4.在【Cluster+Managed Resources+Failover Domains】,選擇“Create a 
 Failover Domain,輸入”nfsha“名稱”,出現組態畫面,請先選擇節點1, 
 再選擇節點2,您可以在這裡將右邊的“Proritized List”打勾,來決定優先順 
 序,數字愈小優先權愈高 
5.在【Cluster+Managed Resources+Resouces】,請選擇“Create a 
 Resource”,請先選擇“File System”,名稱輸入“nfsdata”,格式 
 為”ext3“,Mount Point為”/nfsdata”,Device為“/dev/sdb1” 
6.在【Cluster+Managed Resources+Resouces】,請選擇“Create a 
 Resource”,請先選擇“NFS Client”,名稱輸入“any_host”,Target 
 為“*” 
7.在【Cluster+Managed Resources+Resouces】,請選擇“Create a 
 Resource”,請先選擇“NFS Export”,名稱輸入“nfs_export” 
8.在【Cluster+Managed Resources+Resouces】,請選擇“Create a 
 Resource”,請先選擇“IP Address”,請輸入“192.168.1.45” 
9.【Cluster+Managed Resources+Services】,請選擇“Create a 
 Service”,輸入“nfs1”,請先在右上角的的Failover Domain改 
 為”nfsha“,按下下面的”Add a Shared Resource to this service“,請 
 先選擇”nfsdata“,再按一下剛剛新增的nfsdata,再選擇下方的”Attach a 
 Shard Resource to the selection“,選擇”nfs_export“,再按一下 
 nfs_export,再選擇下方的”Attach a Shard Resource to the selection“, 
 選擇”any_host“,最後選擇”Add a Shared Resource to this service“, 
 選擇”192.168.1.45 IP Address“,即大功告成 
10.最後記得儲存離開 
# scp –r /etc/cluster node2:/etc 
(注意,是整個目錄拷貝過去) 
※請依序在Node1及Node2啟動服務 
(每一個服務都要同時啟動完成,再啟動下一個服務) 
# service ccsd start 
(檢查Cluster版本有無異動,啟動時間會比較久) 
# service cman start 
(Cluster manager) 
# service fenced start 
(啟動電源設備,在測試時會出現Failed,不過不會影響後面的操作) 
# service rgmanager start 
(管理resource) 
※如果啟動有問題的話,請依照相反順序來進行關閉 
《進行測試NFS Cluster》 
您可以利用以下幾種方法來進行測試 
# ping 192.168.1.45 
(是否有回應狀況) 
# showmount –e 192.168.1.45 
(查看是否有分享目錄出來) 
# mount 192.168.1.45:/nfsdata /nfsdata 
(確定是否可以正常Mount進來,如果要寫入檔案,記得權限要開) 
# system-config-cluster 
(請選擇Cluster Manager,以確定服務否有啟動) 
利用其它電腦進行掛載後,再將目前使用的節點關機,以查看是否Failover過去
 
From 
http://phorum.study-area.org/viewtopic.php?t=44931