发布时间 : 星期三 文章gpfs更新完毕开始阅读ca13fcd7240c844769eaee7e

4.2 准备远程命令执行和远程拷贝环境

GPFS支持rsh ssh两种远程执行shell和rcp、scp两种远程拷贝工具。GPFS默认使用rsh和rcp,下文以rsh+rcp作介绍。

4.2.1 首先保证hosts文件里面包含所有集群节点的纪录。

4.2.2 在.rhost文件里面增加所有集群节点的纪录。 [root@lpar1#]cat /.rhosts lpar1 root lpar2 root lpar3 root lpar4 root [root@lpar1#]

至此,rsh和rcp已能正常工作,可以用rsh hostname command 来验证配置是否正确。

4.3 准备集群的节点配置文件

[root@lpar1#]cat /tmp/mmfs/nodefile

#NodeName:NodeDesignations:AdminNodeName lpar1:manager-quorum lpar2:manager-quorum lpar3:client-nonquorum lpar4:client-nonquorum [root@lpar1#]

该节点配置文件每一行对应一个集群节点,每个集群节点有用减号分隔两个配置项。第一项可选参数为manager和client,manager表示该节点可以被集群管理软件选择作为集群管理功能的节点如Token Manager和Configuration Manager。client表示不能被赋予上述职能。quorum和nonquorum表示是否作为quorum节点。 4.4 准备NSD的配置文件

该配置文件每一行对应一个物理的磁盘设备(LUN),各个配置项的意义如下: Diskname:是磁盘设备在PrimaryServer上的虚拟设备名称,该名称并不要求在所有节点上相同。

PrimaryServer:该磁盘的主要NSD IO服务提供节点,即主NSD服务器。只有在所有节点都直接连接到存储的情况下,该项才可以省略。在本例中lpar3和lpar4通过lpar1和lpar2访问磁盘,该项为必须项。

BackupServer:备份的NSD IO服务提供节点,意义同上。

DiskUsage: 共有dataAndMetadata 、dataOnly、 metadataOnly 和descOnly四个选项。

FailureGroup:所属的失效组,是从-1到4000的一个数字。 DesireName:希望的NSD的名字

StroragePool:指定该磁盘所属的存储池,如果不指定的话默认的存储池为system存储池。

5. 基本配置过程 5.1 创建GPFS集群

用mmcrcluster命令创建集群,用前面准备好的节点配置文件nodefile作为输入:

其中-N选项指定节点配置文件,-s指定集群的Cluster Data Server,-s指定备选Cluster Data Server,-C指定集群所使用的名称,-A设置集群随节点启动时自动启动,默认是不启动。

用mmlscluster命令显示所创建的GPFS集群的信息:

5.2 创建NSD

用mmcrnsd命令创建NSD:

-F指定NSD的配置文件,使用前面准备好的数据文件nsdfile,-v no表示如果有磁盘上已经建有GPFS文件系统,则重新格式化它。

用mmlsnsd显示所创建的NSD的信息:

用来创建NSD的数据文件被mmcrnsd命令修改为如下内容:

该修改过的数据文件可以被用来提供输入给NSD的删除命令mmdelnsd和下面创建GPFS文件系统的命令mmcrfs。 5.3 启动集群

用mmstartup 命令启动GPFS后台进程。

启动集群是创建文件系统的先决条件。 5.4 创建GPFS文件系统 用mmcrfs命令创建文件系统:

其中/gpfs01表示所创建的文件系统的挂载点,不需要事先手工创建挂载点目录,mmcrfs命令会自动在集群的所有节点创建该挂载点,并在执行删除文件系统命令mmdelfs时自动删除挂载点。gpfs01是文件系统所对应的虚拟设备的名称。-F选项指定被mmcrnsd命令修改过的NSD配置文件nsdfile。-A表示开机自动挂载该文件系统。-B指定文件系统数据块的大小,如前所述,GPFS3.1最新ML支持16K, 64K, 128K, 256K, 512K, 1024K (1M), 2M, 4M等数据块大小。

如果在集群尚未启动的情况下创建文件系统,系统会提示如下出错信息: