歡迎來到Linux教程網
Linux教程網
Linux教程網
Linux教程網
您现在的位置: Linux教程網 >> UnixLinux >  >> Unix知識 >> IBM AIX

如何在IBM AIX上構建一個雙節點的IBM GPFS集群

概述

本文的目的是為在 AIX 上安裝和配置一個簡單的雙節點 GPFS 集群提供一個分步指南。下圖提供了集群配置的可視化表示形式。

圖 1. 集群配置的可視化表示形式

GPFS

GPFS 提供了一個真正的 “共享文件系統” 功能,具有卓越的性能和可伸縮性。GPFS 允許一組計算機通過一個公共的存儲區域網絡(SAN)基礎架構、一個網絡或混合連接類型來同時訪問一組公共的文件數據。GPFS 提供了存儲管理、信息生命周期管理工具和集中式管理,還允許從提供了一個全局命名空間的遠程 GPFS 集群對文件系統進行共享訪問。

GPFS 提供了數據分層、復制和其他許多高級特性。根據您的需要,配置可能很簡單,也可能很復雜。

為 GPFS 准備好 AIX 環境

我們假設,您已經為 GPFS 購買了必要的許可和軟件。如果有可用的 GPFS 軟件介質,那麼可以將 GPFS 文件集復制到需要運行 GPFS 的每個 AIX 節點上。

在本文中,每個分區都是利用 AIX version 7.1, Technology Level 2, Service Pack 1 構建的:

# oslevel -s
7100-02-01-1245

每個 AIX 系統都被配置為有 7 個 SAN 磁盤。一個磁盤用於 AIX 操作系統(rootvg),其余 6 個磁盤供 GPFS 使用。

# lspv
hdisk0          00c334b6af00e77b                    rootvg          active
hdisk1          none                                none
hdisk2          none                                none
hdisk3          none                                none
hdisk4          none                                none
hdisk5          none                                none
hdisk6          none                                none

SAN 磁盤(將與 GPFS 一起使用)被分配到兩個節點(也就是說,在這兩個分區之間共享它們)。兩個 AIX 分區都配置了虛擬光纖通道適配器,並通過 SAN 訪問它們的共享存儲,如下圖所示。

圖 2. 部署圖

使用 chdev 命令,對每個 hdisk 更改以下屬性,如下表所示。

lsattr 命令可用於驗證每個屬性是否被設置為正確的值:

# lsattr -El hdisk6 –a queue_depth –q algorithm –a reserve_policy
algorithm       round_robin        Algorithm                        True
queue_depth     32                 Queue DEPTH                      True
reserve_policy  no_reserve         Reserve Policy                   True

下一步是配置 Secure Shell (SSH),使這兩個節點可以互相通信。在構建 GPFS 集群時,必須確保集群中的節點擁有正確配置的 SSH,這樣它們就不再需要進行密碼身份驗證。這需要配置 Rivest-Shamir-Adleman algorithm (RSA) 密鑰對,以完成 root 用戶 SSH 配置。需要在兩個方向上對 GPFS 集群中的所有節點進行此配置。

GPFS 中的 mm 命令需要在身份驗證後才能工作。如果沒有正確配置密鑰,這些命令每次都會提示您輸入 root 密碼,並且 GPFS 集群可能會失敗。測試此配置的一個好方法是,確保 ssh 命令可以不受到 root 密碼請求的阻礙,繼續正常工作。

您可以參考在 AIX 上 配置 SSH 密鑰的分步指南 :

可以在每個節點上使用以下命令,確認各節點都能夠使用 SSH 進行彼此(無阻礙的)通信:

aixlpar1# ssh aixlpar1a date
aixlpar1# ssh aixlpar2a date
   
aixlpar2# ssh aixlpar2a date
aixlpar2# ssh aixlpar1a date

若 SSH 正常工作,則為 root 用戶配置 WCOLL (Working Collective) 環境變量。例如,創建一個文本文件,以每行一個節點的形式列出所有節點:

# vi /usr/local/etc/gfps-nodes.list
aixlpar1a
aixlpar2a

將節點文件復制到集群中的所有節點。

將以下條目添加到 root 用戶 .kshrc 文件。這將允許 root 用戶在 GPFS 集群中的所有節點上使用 dsh 或 mmdsh 命令來執行命令。

export WCOLL=/usr/local/etc/gfps-nodes.list

應該修改 root 用戶 PATH ,確保系統管理員可以使用所有 GPFS mm 命令。將以下條目添加到 root 用戶的 .kshrc 文件。

export PATH=$PATH:/usr/sbin/acct:/usr/lpp/mmfs/bin

文件 /etc/hosts 在 GPFS 集群中的所有節點上都應該是一致的。每個節點的每個 IP 地址都必須被添加到每個集群節點上的 /etc/hosts。即使在每個節點上都配置了域名系統(DNS)的時候,也建議這樣做。例如:

# GPFS_CLUSTER1 Cluster - Test

# # GPFS Admin network  - en0
10.1.5.110  aixlpar1a aixlpar1
10.1.5.120  aixlpar2a aixlpar2

# # GPFS Daemon - Private Network  – en1  
10.1.7.110   aixlpar1p
10.1.7.120   aixlpar2p

在 AIX 上安裝 GPFS

現在已經配置好了 AIX 環境,下一步是在每個節點上安裝 GPFS 軟件。這是一個非常簡單的過程。

我們將安裝 GPFS 版本 3.5(基礎級文件集),然後應用最新的更新升級到 3.5.0.10。只需三個文件集要安裝。您可以使用 System Management Interface Tool (SMIT) 或 installp 命令來安裝軟件。

aixlpar1 :/tmp/cg/GPFS/gpfs35_aix # inutoc .
aixlpar1 :/tmp/cg/GPFS/gpfs35_aix # ls -ltr
total 123024
-rw-r--r--    1 root     system       175104 Jun  7 2012  gpfs.msg.en_US
-rw-r--r--    1 root     system       868352 Jun  7 2012  gpfs.docs.data
-rw-r--r--    1 root     system     61939712 Jun  7 2012  gpfs.base
-rw-r--r--    1 root     system         3549 Apr 26 16:37 .toc
aixlpar1 :/tmp/cg/GPFS/gpfs35_aix # install –Y –d .ALL

在第二個節點上重復此操作。

您可以通過使用 lslpp 命令來驗證已安裝了基礎級別的 GPFS 文件集:

# lslpp -l | grep -i gpfs
 gpfs.base                  3.5.0.0  COMMITTED  GPFS File Manager
 gpfs.msg.en_US             3.5.0.0  COMMITTED  GPFS Server Messages - U.S.
 gpfs.base                  3.5.0.0  COMMITTED  GPFS File Manager
 gpfs.docs.data             3.5.0.0  COMMITTED  GPFS Server Manpages and

下一步是安裝最新的 GPFS 更新。同樣,可以使用 SMIT(或 installp)將文件集更新為最新的級別。lslpp 命令可用來驗證 GPFS 文件集已被更新。

aixlpar1 :/tmp/cg/gpfs_fixes_3510 # inutoc .
aixlpar1 :/tmp/cg/gpfs_fixes_3510 # ls -ltr
total 580864
-rw-r--r--    1 30007    bin       910336 Feb  9 00:10 U858102.gpfs.docs.data.bff
-rw-r--r--    1 30007    bin       47887360 May  8 08:48 U859646.gpfs.base.bff
-rw-r--r--    1 30007    bin       99655680 May  8 08:48 U859647.gpfs.gnr.bff
-rw-r--r--    1 30007    bin       193536 May  8 08:48 U859648.gpfs.msg.en_US.bff
-rw-r--r--    1 root     system    4591 May 10 05:15 changelog
-rw-r--r--    1 root     system    3640 May 10 05:42 README
-rw-r-----    1 root     system    55931 May 15 10:23 GPFS-3.5.0.10-power-AIX.readme.html
-rw-r-----    1 root     system    148664320 May 15 10:28 GPFS-3.5.0.10-power-AIX.tar
-rw-r--r--    1 root     system    8946 May 15 14:48 .toc
     
aixlpar1 :/tmp/cg/gpfs_fixes_3510 # smitty update_all
     
COMMAND STATUS
     
Command:OK            stdout: yes           stderr: no
     
Before command completion, additional instructions may appear below.
     
[MORE...59]
Finished processing all filesets.(Total time:18 secs).
     
+-----------------------------------------------------------------------------+
                        Pre-commit Verification...
+-----------------------------------------------------------------------------+
Verifying requisites...done
Results...
     
SUCCESSES
---------
  Filesets listed in this section passed pre-commit verification
  and will be committed.
     
  Selected Filesets
  -----------------
  gpfs.base 3.5.0.10                          # GPFS File Manager
  gpfs.msg.en_US 3.5.0.9                      # GPFS Server Messages - U.S. ...
     
  << End of Success Section >>
     
+-----------------------------------------------------------------------------+
                          Committing Software...
+-----------------------------------------------------------------------------+
     
installp:COMMITTING software for:
        gpfs.base 3.5.0.10
     
Filesets processed:1 of 2  (Total time:18 secs).
     
installp:COMMITTING software for:
        gpfs.msg.en_US 3.5.0.9
     
Finished processing all filesets.(Total time:18 secs).
     
+-----------------------------------------------------------------------------+
                                Summaries:
+-----------------------------------------------------------------------------+
     
Installation Summary
--------------------
Name                        Level           Part        Event       Result
-------------------------------------------------------------------------------
gpfs.msg.en_US              3.5.0.9         USR         APPLY       SUCCESS
gpfs.base                   3.5.0.10        USR         APPLY       SUCCESS
gpfs.base                   3.5.0.10        ROOT        APPLY       SUCCESS
gpfs.base                   3.5.0.10        USR         COMMIT      SUCCESS
gpfs.base                   3.5.0.10        ROOT        COMMIT      SUCCESS
gpfs.msg.en_US              3.5.0.9         USR         COMMIT      SUCCESS
     
     
     
aixlpar1 :/tmp/cg/gpfs_fixes_3510 # lslpp -l gpfs\*
  Fileset                      Level  State      Description
  ----------------------------------------------------------------------------
Path:/usr/lib/objrepos
  gpfs.base                 3.5.0.10  COMMITTED  GPFS File Manager
  gpfs.msg.en_US             3.5.0.9  COMMITTED  GPFS Server Messages - U.S.
                                                 English
     
Path:/etc/objrepos
  gpfs.base                 3.5.0.10  COMMITTED  GPFS File Manager
     
Path:/usr/share/lib/objrepos
  gpfs.docs.data             3.5.0.3  COMMITTED  GPFS Server Manpages and
                                                 Documentation

在第二個節點上重復此更新。

配置 GPFS 集群

現在,GPFS 已被安裝,我們可以跨兩個 AIX 系統創建一個集群。首先,我們創建了一個文本文件,其中包含一個列表,列出了每個節點以及它們的 GPFS 描述和用途。我們選擇將每個節點都配置為一個 GPFS 仲裁管理器(quorum manager)。每個節點都是一個 GPFS 服務器。如果您不確定在您的環境中需要多少仲裁管理器和 GPFS 服務器,請參閱 GPFS Concepts, Planning, and Installation 文檔 以獲得相關指南。

aixlpar1 :/tmp/cg # cat gpfs-nodes.txt
aixlpar2p:quorum-manager:
aixlpar1p:quorum-manager:

使用 mmcrcluster 命令創建集群。*GPFS 集群名稱是 GPFS_CLUSTER1。主節點(或 NSD 服務器,將在下一節討論)是 aixlpar1p ,二級節點是 aixlpar2p。我們已經指定,ssh 和 scp 將用於集群通信和管理。

aixlpar1 :/tmp/cg # mmcrcluster –C GPFS_CLUSTER1 -N /tmp/cg/gpfs-nodes.txt -p
aixlpar1p -s aixlpar2p -r /usr/bin/ssh -R /usr/bin/scp
Mon Apr 29 12:01:21 EET 2013: mmcrcluster:Processing node aixlpar2
Mon Apr 29 12:01:24 EET 2013: mmcrcluster:Processing node aixlpar1
mmcrcluster:Command successfully completed
mmcrcluster:Warning:Not all nodes have proper GPFS license designations.
Use the mmchlicense command to designate licenses as needed.
mmcrcluster:Propagating the cluster configuration data to all
affected nodes.This is an asynchronous process.

*備注:為了確保 GPFS 守護進程通信是在專有 GPFS 網絡上進行的,在創建集群的過程中,我們指定了 GPFS 守護進程節點名稱(即以 p 結尾的主機名)。在 GPFS 集群中要考慮兩種類型的通信:管理命令通信和守護進程通信。管理命令使用遠程 shell(ssh、 rsh 或其他 shell)和基於套接字的通信。確保所有 GPFS 守護進程通信 在 專有網絡上執行,這被認為是一種最佳實踐。請參閱 GPFS developerWorks 維基,了解有關 GPFS 網絡配置考慮因素與實踐的更多信息和討論。

為了使用單獨的網絡進行管理命令通信,您可以使用 mmchnode 命令修改 “管理節點名稱”。在本例中,單獨的網絡地址由節點名稱末尾的 a”(代表 Administration)指定,例如 aixlpar1a。

# mmchnode -admin-interface=aixlpar1p -N aixlpar1a
# mmchnode -admin-interface=aixlpar2p -N aixlpar2a

mmcrcluster 命令警告我們,不是所有節點都有適當的 GPFS 許可分配。我們使用 mmchlicense 命令將 GPFS 服務器許可分配給集群中的兩個節點。

aixlpar1 :/ # mmchlicense server --accept  -N aixlpar1a,aixlpar2a
The following nodes will be designated as possessing GPFS server licenses:
aixlpar2a
aixlpar1a
mmchlicense:Command successfully completed
mmchlicense:Propagating the cluster configuration data to all
 affected nodes.This is an asynchronous process.

該集群現在已完成配置。mmlscluster 命令可以用於顯示集群信息。

# mmlscluster

GPFS cluster information
========================
 GPFS cluster name:         GPFS_CLUSTER1.aixlpar1p
 GPFS cluster id:           8831612751005471855
 GPFS UID domain:           GPFS_CLUSTER.aixlpar1p
 Remote shell command:      /usr/bin/ssh
 Remote file copy command:/usr/bin/scp

GPFS cluster configuration servers:
-----------------------------------
 Primary server:    aixlpar1p
 Secondary server:aixlpar2p

Node  Daemon node name  IP address      Admin node name  Designation
----------------------------------------------------------------------
  1   aixlpar2p       10.1.7.120   aixlpar2a      quorum-manager
  2   aixlpar1p       10.1.7.110   aixlpar1a      quorum-manager

此時,您可以使用 mmdsh 命令,驗證 SSH 通信在所有 GPFS 節點上如期運行。這會在集群中的所有節點上運行一個命令。如果存在 SSH 配置問題,該命令可以突出顯示問題。

aixlpar1 :/ # mmdsh date
aixlpar1:Mon Apr 29 12:05:47 EET 2013
aixlpar2:Mon Apr 29 12:05:47 EET 2013

aixlpar2 :/ # mmdsh date
aixlpar1:Mon Apr 29 12:06:41 EET 2013
aixlpar2:Mon Apr 29 12:06:41 EET 2013

配置網絡共享磁盤

GPFS 在 TCP/IP 網絡上提供了一個塊級(block-level)接口,稱為網絡共享磁盤(Network Shared Disk,NSD)協議。無論使用 NSD 協議還是直接連接到 SAN,掛載的文件系統對於用戶和應用程序而言看起來都是一樣的(GPFS 透明地處理 I/O 請求)。

共享磁盤集群是最基本的環境。在此配置中,存儲被直接連接到集群中的所有系統。直接連接意味著每個共享塊設備都同時可用於 GPFS 集群中的所有節點。直接訪問還意味著可以使用 Small Computer System Interface (SCSI) 或其他使用 SAN 的塊級協議來訪問存儲。

下圖顯示了一個 GPFS 集群,所有節點都連接到一個公共的光纖通道 SAN 和存儲設備。使用 SAN 將各節點連接到存儲,並使用本地區域網絡(LAN)讓它們彼此連接。在 GPFS 節點上運行的應用程序所使用的數據會流過 SAN,GPFS 控制著集群中的 GPFS 實例之中的信息流過 LAN。如果集群中的所有節點都需要獲得最高的數據訪問性能,那麼此配置是最佳配置。

圖 3. GPFS 集群概述圖

查看本欄目更多精彩內容:http://www.bianceng.cn/OS/unix/

mmcrnsd 命令用於為 GPFS 創建 NSD 設備。首先,我們創建一個文本文件,其中包含一個列表,列出了每個 hdisk 名稱、它們的 GPFS 分配(數據、元數據、兩者兼有*)和 NSD 名稱。

hdisk1:::dataAndMetadata::nsd01::
hdisk2:::dataAndMetadata::nsd02::
hdisk3:::dataAndMetadata::nsd03::
hdisk4:::dataAndMetadata::nsd04::
hdisk5:::dataAndMetadata::nsd05::
hdisk6:::dataAndMetadata::nsd06::

*備注:請參閱 GPFS Concepts, Planning, and Installation 文檔,獲得有關選擇 NSD 設備使用類型的指南。

然後,運行 mmcrnsd 命令,創建 NSD 設備。

# mmcrnsd -F /tmp/cg/gpfs-disks.txt
mmcrnsd:Processing disk hdisk1
mmcrnsd:Processing disk hdisk2
mmcrnsd:Processing disk hdisk3
mmcrnsd:Processing disk hdisk4
mmcrnsd:Processing disk hdisk5
mmcrnsd:Processing disk hdisk6
mmcrnsd:Propagating the cluster configuration data to all
 affected nodes.This is an asynchronous process.

現在,lspv 命令顯示了與每個 AIX hdisk 有關聯的 NSD 名稱。

# lspv
hdisk0          00c334b6af00e77b                    rootvg          active
hdisk1          none                                nsd01
hdisk2          none                                nsd02
hdisk3          none                                nsd03
hdisk4          none                                nsd04
hdisk5          none                                nsd05
hdisk6          none                                nsd06

mmlsnsd 命令顯示了每個 NSD 的信息,尤其是每個設備與哪個 GPFS 文件系統有關聯。此時,我們還沒有創建 GPFS 文件系統。因此,每個磁盤目前都是空閒的。您會注意到,在 NSD 服務器 下面,每個設備都被顯示為直接附加。這是所期望的 SAN 附加磁盤的附加方式。

# mmlsnsd

File system   Disk name    NSD servers
---------------------------------------------------------------------------
(free disk)   nsd01        (directly attached)
(free disk)   nsd02        (directly attached)
(free disk)   nsd03        (directly attached)
(free disk)   nsd04        (directly attached)
(free disk)   nsd05        (directly attached)
(free disk)   nsd06        (directly attached)

GPFS 文件系統配置

接下來,可以對 GPFS 文件系統進行配置。mmcrfs 命令用於創建文件系統。我們選擇了創建兩個文件系統;/gpfs 和 /gpfs1。/gpfs (gpfs0) 文件系統將被配置了一個大小為 256K(默認)的 GPFS 塊,並且 /gpfs1 (gpfs1) 的塊大小將被配置為 1M*。兩個文件系統都針對復制進行了配置 (-M2 –R2)。為 /gpfs 指定 /tmp/cg/gpfs-disk.txt 文件,並為 /gpfs1 指定 /tmp/cg/gpfs1-disk.txt。這些文件指定了在創建過程中每個文件系統使用哪些 NSD 設備。

*備注:小心地選擇塊大小。在已經創建 GPFS 設備後,就無法再更改這個值。

# cat /tmp/cg/gpfs-disk.txt
nsd01:::dataAndMetadata:-1::system
nsd02:::dataAndMetadata:-1::system
nsd03:::dataAndMetadata:-1::system

# cat /tmp/cg/gpfs1-disk.txt
nsd04:::dataAndMetadata:-1::system
nsd05:::dataAndMetadata:-1::system
nsd06:::dataAndMetadata:-1::system

# mmcrfs /gpfs gpfs0 -F/tmp/cg/gpfs-disks.txt -M2 -R 2
# mmcrfs /gpfs1 gpfs1 -F/tmp/cg/gpfs1-disks.txt -M2 -R 2 –B 1M

mmlsnsd 命令顯示每個文件系統的 NSD 配置。NSD 設備 1 至 3 被分配到 gpfs0,而設備 4 至 6 被分配到 gpfs1。

# mmlsnsd

File system   Disk name    NSD servers
---------------------------------------------------------------------------
gpfs0         nsd01        (directly attached)
gpfs0         nsd02        (directly attached)
gpfs0         nsd03        (directly attached)
gpfs1         nsd04        (directly attached)
gpfs1         nsd05        (directly attached)
gpfs1         nsd06        (directly attached)

現在,兩個 GPFS 文件系統在兩個節點上均可用。

aixlpar1 :/ # df -g
Filesystem    GB blocks      Free %Used    Iused %Iused Mounted on
/dev/hd4           1.00      0.89   12%     5211     3% /
/dev/hd2           3.31      0.96   71%    53415    18% /usr
/dev/hd9var        2.00      1.70   16%     5831     2% /var
/dev/hd3           2.00      1.36   33%      177     1% /tmp
/dev/hd1           2.00      2.00    1%      219     1% /home
/proc                 -         -    -         -     -  /proc
/dev/hd10opt       1.00      0.79   21%     3693     2% /opt
/dev/local         1.00      0.97    3%      333     1% /usr/local
/dev/loglv         1.00      1.00    1%       54     1% /var/log
/dev/tsmlog        1.00      1.00    1%        7     1% /var/tsm/log
/dev/hd11admin      0.12      0.12    1%       13     1% /admin
/dev/optIBMlv      2.00      1.99    1%       17     1% /opt/IBM
/dev/gpfs1       150.00    147.69    2%     4041     3% /gpfs1
/dev/gpfs0       150.00    147.81    2%     4041     7% /gpfs

在這裡,可以使用 mmdsh 命令快速檢查所有節點上的文件系統狀態。

aixlpar1 :/ # mmdsh df -g | grep gpfs
aixlpar2:/dev/gpfs0       150.00    147.81    2%     4041     7% /gpfs
aixlpar2:/dev/gpfs1       150.00    147.69    2%     4041     3% /gpfs1
aixlpar1:/dev/gpfs1       150.00    147.69    2%     4041     3% /gpfs1
aixlpar1:/dev/gpfs0       150.00    147.81    2%     4041     7% /gpfs

如果需要更詳細的信息,可以使用 mmdf 命令。

aixlpar1 :/gpfs # mmdf gpfs0 --block-size=auto
disk      disk size  failure holds    holds                 free                free
name      group metadata data        in full blocks        in fragments
--------------- ------------- -------- -------- ----- -------------------- ------------
Disks in storage pool: system (Maximum disk size allowed is 422 GB)
nsd01       50G       -1 yes      yes          49.27G ( 99%)          872K ( 0%)
nsd02       50G       -1 yes      yes          49.27G ( 99%)          936K ( 0%)
nsd03       50G       -1 yes      yes          49.27G ( 99%)          696K ( 0%)
           -------------                       -------------------- -------------------
(pool total) 150G                              147.8G ( 99%)        2.445M ( 0%)
     
           =============                       ==================== ===================
(total)          150G                          147.8G ( 99%)        2.445M ( 0%)
     
Inode Information
-----------------
Number of used inodes:            4040
Number of free inodes:           62008
Number of allocated inodes:      66048
Maximum number of inodes:        66048
     
aixlpar1 :/gpfs # mmdf gpfs1 --block-size=auto
disk       disk size  failure holds   holds             free            free
name       group metadata data        in full blocks    in fragments
--------------- ------------- -------- -------- ----- -------------------- 
Disks in storage pool: system (Maximum disk size allowed is 784 GB)
nsd04        50G       -1 yes      yes          49.55G ( 99%)        1.938M ( 00%)
nsd05        50G       -1 yes      yes          49.56G ( 99%)          992K ( 0%)
nsd06        50G       -1 yes      yes          49.56G ( 99%)        1.906M ( 00%)
          -------------                         -------------------- -------------------
(pool total) 150G                               148.7G ( 99%)        4.812M ( 00%)
     
          =============                         ==================== ===================
(total)           150G                          148.7G ( 99%)        4.812M ( 00%)
     
Inode Information
-----------------
Number of used inodes:            4040
Number of free inodes:          155704
Number of allocated inodes:     159744
Maximum number of inodes:       159744

通過決勝(tiebreaker)磁盤進行節點仲裁

如果您有一個雙節點集群,或者集群中所有節點都通過 SAN 連接到一組公共的邏輯單元號(LUN),並且您想繼續通過單一幸存節點(surviving node)提供數據,那麼我們建議使用決勝磁盤(tiebreaker disk)。通常情況下,只在雙節點集群中使用決勝磁盤。決勝磁盤不是特殊的 NSD;您可以使用任何 NSD 作為決勝磁盤。

在本例中,我們選擇了三個(總數為六個)NSD 設備作為決勝磁盤。我們在所有節點上停止 GPFS,並相應地配置了集群。

# mmshutdown -N
# mmchconfig tiebreakerDisks="nsd01;nsd03;nsd05"
# mmstartup -a

集群守護進程狀態

在 GPFS 處於活動狀態時,有兩個 GPFS 守護進程仍然處於活動狀態(mmfsd64 和 runmmfs)。

# ps -ef | grep mmfs
root 4784176 5505220 0   May 20 - 0:27 /usr/lpp/mmfs/bin/aix64/mmfsd64
root 5505220       1 0   May 20 - 0:00 /usr/lpp/mmfs/bin/mmksh /usr/lpp/mmfs/bin/runmmfs

您可以使用 mmgetstate 命令來查看集群中所有節點上的 GPFS 守護進程的狀態。

# mmgetstate -aLs

Node number  Node name       Quorum  Nodes up  Total nodes  GPFS state  Remarks
------------------------------------------------------------------------------------
      1      aixlpar2a       1*        2          2       active      quorum node
      2      aixlpar1a       1*        2          2       active      quorum node

Summary information
---------------------
Number of nodes defined in the cluster:            2
Number of local nodes active in the cluster:       2
Number of remote nodes joined in this cluster:     0
Number of quorum nodes defined in the cluster:     2
Number of quorum nodes active in the cluster:      2
Quorum = 1*, Quorum achieved

結束語

恭喜您!您剛剛配置了自己的第一個 GPFS 集群。在本文中,您已經學會了如何在 AIX 上構建一個簡單的雙節點 GPFS 集群。可以輕松地部署這種類型的配置,以支持具有高可用性需求的集群工作負載,例如 MQ 多實例集群。GPFS 提供了許多配置選項;規劃 GPFS 集群可能要花很長時間。

Copyright © Linux教程網 All Rights Reserved