GPFS分布式系统在云计算的实现方案_第1页
GPFS分布式系统在云计算的实现方案_第2页
GPFS分布式系统在云计算的实现方案_第3页
GPFS分布式系统在云计算的实现方案_第4页
GPFS分布式系统在云计算的实现方案_第5页
已阅读5页,还剩28页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、 GPFS分布式系统在云计算的实现方案随着技术的不断发展,大规模的并行计算方式越来越多的激发有关对高性能计算机的需求,如大数据挖掘、高性能计算处理等。同时结合云计算技术的快速普及与发展,如何将高速并行计算应用到企业的私有云平台就成了很多企业探讨和实践的话题。本文主要介绍 IBM Spectrum Scale(GPFS)如何与当下最流行的开源云管理平台OpenStack结合,完成企业私有云平台的构建。既满足计算、存储、网络资源被充分利用,又保证高并发、低开销的需求。该文章主要涉及到三个部分,分别是Spectrum Scale(GPFS)软件的部署、软件的配置和实践。OpenStack的部署与配置

2、不在本文讨论范围内,具体安装与配置方法请参考OpenStack官方手册/。在部署 GPFS 软件之前,一定要先正确配置安装环境,建立必要的Yum源,避免依赖包安装失败。在各个节点正确开启时间同步服务ntp,确保云环境的时间同步。修改各个节点上的Host文件,并开启ssh免密码登陆功能。关闭各个节点的selinux,并适当调整本地防火墙策略,避免部署时造成失败。下面我将详细介绍 IBM GPFS 软件的概念与工作机制,本文主要介绍版本,以下简称GPFS,其余版本介绍,可以参考IBM官方网站,/cn-zh/?lnk=fcc。GPFS的基本概念与工作原理GPFS 是IBM公司一款优秀的分布式文件系统

3、集群软件,其易扩展性、高可靠性得到了业界的一致好评。GPFS自从4.1以后,更名为IBM Spectrum Scale,并入IBM Spectrum产品线。本章节将着重介绍它的基本概念、特性与工作原理。GPFS 简介与特性IBM GPFS (General Parallel File System ,GPFS)是一款并行的文件系统,它保证在资源组内的所有节点可以并行访问整个文件系统,而且针对此文件系统的服务操作,可以同时安全地在此文件系统的多个节点上实现。GPFS 允许客户共享文件,而这些文件可能分布在不同节点的不同硬盘上,保证了数据的一致性和完整性。GPFS支持多种平台的部署,如Window

4、s、Linux、AIX,每种环境部署方式相同,降低了软件部署的复杂度。通过部署在云环境中部署GPFS,可以提升磁盘I/O,消除存储层面单点故障,保证数据的安全性和一致性,降低IT管理成本。GPFS具有以下特性,帮助企业IT更好的部署和管理分布式文件系统。GPFS 自动在各个节点间同步配置文件和文件系统信息,而且在同一个节点内,对 GPFS 的管理可以在任一个节点上进行,实现简单管理;支持大部分的操作系统,如 AIXLinuxWindows 环境,并支持混合部署,达到不同客户端访问相同存储的目的;GPFS通过一套复杂的信令管理机制(令牌管理机制)保证数据一致性。通过这套机制允许任意节点通过各自独

5、立的路径到达同一个文件。即使节点无法正常工作, GPFS 也可以找到其它的路径;GPFS 也是一种日志文件系统,为不同节点建立各自独立的日志。日志中记录 metadata 的分布,一旦节点发生故障后,可以保证快速恢复数据;GPFS支持超大文件或文件系统,理论上支持2的99次方字节大小(超过100TB)的文件系统,每个文件系统支持2Billion个文件;GPFS能够有效的将集群上所有的磁盘负载的I/O进行均衡,这样就避免了热点磁盘出现竞争问题,从而提高性能;GPFS的工作原理GPFS采用 C/S 结构来对群集内的节点进行管理。为了更好的理解它的工作方式及管理模型,本章将通过图形方式对其原理进行阐

6、述。GPFS客户端(Client)是在GPFS软件安装后人为指定的,因为无论是服务器端和客户端,采用的软件及安装方式都是相同的。主要是通过在不同的节点上利用本地磁盘建立NSD共享盘,并将其通过GPFS软件统一管理生成共享池,提供给不同的终端使用,同时借助锁机制达到多终端同时读写的需求。具体通信原理图,如图 1 所示,命令执行如图 2 所示:图 1.GPFS通信原理图专业术语说明:NSD是网络共享盘,一个虚拟的磁盘子系统,提供对GPFS内共享磁盘全局命名的功能。Cluster是多个节点的集合,它们共享同一个或者多个并行文件系统,群集里的节点可以并发访问这些文件系统内的数据。失败域是一个磁盘的集合

7、,一个单点故障会引起集合内部的所有磁盘同时失效。仲裁是保障GPFS资源可用和完整性的机制,在GPFS中,如果半数以上节点GPFS守护进程正常工作,次机制就被激活,GPFS系统处于正常工作状态。图 2.GPFS操作执行原理图原理图说明:本地磁盘将被发现并添加到全局的命名空间中,形成网络共享盘(NSD),供群集调用。NSD将保存数据分为多种类型,主要是用于检索的元数据(meta)和用于存储的data数据。群集将生成的NSD盘按照不同的需求生成多个或单个共享磁盘,供上层服务器挂载。最后上层服务器可以利用mount将多个或者单个共享磁盘挂载到本地,进行数据存储,同时保证并发操作。本章使大家了解了什么是

8、GPFS以及它的通信及执行原理,下一部分将主要介绍本次实例部署的架构设计。GPFS的架构设计为了让大家更好的理解部署GPFS在企业私有云环境中的优势,根据项目的实际经验绘制了部署架构图,并在文中对架构图进行了详细说明。如图 3 所示:图 3.GPFS部署架构图说明:在本文中,我们将采用以上架构设计完成GPFS对OpenStack云平台的融合。为了更好的理解架构用意,以下为详细说明。通过光纤存储网络划分三块大盘分别挂载到不同的GPFS节点中,充当共享存储盘,供VM的存储。采用三台服务器作为GPFS群集节点,分别挂载来自存储的三块物理存储卷到本地文件系统。通过GPFS初始化操作,将三块数据卷进行N

9、SD格式化,确保可以被GPFS群集统一调用。通过GPFS群集划分三块共享卷给OpenStack云环境,分别挂载到Nova节点,作为VM的存储,Glance节点作为镜像的存储,Cinder节点,作为实例数据盘的存储。多个Nova节点之间可以同时读写共享存储池,便于实现VM的动态迁移。GPFS的安装与配置对GPFS有了一个初步的了解之后,您将在本章通过实际案例操作进一步熟悉GPFS。本章节一共分为三个部分,分别介绍安装环境的说明,具体安装及安装后的GPFS配置。GPFS的环境说明由于受到硬件资源限制,测试环境将采用三台服务器进行部署,并且每台服务器上已经挂载从SAN划分的物理卷,每台服务器角色均为

10、GPFS的存储节点,同时一台是主配置服务器,一台是辅助配置服务器,详细信息如表 1 所示。表 1.GPFS 环境说明目前GPFS支持在多种平台的部署,具体到每个平台的安装部署,可以参考官方文件。本实例中将主要介绍基于Linux平台的安装部署与配置。依赖组件的安装由于GPFS的安装过程需要其它的软件包的支持,所以我们建议安装主要的YUM源,之后再安装GPFS之前需要先将以下表2中的依赖软件包安装到主机上,避免因为缺少依赖关系而产生错误。表 2. 依赖软件包为了方便依赖包的安装,本章将采用 YUM 的方式进行安装。由于现场环境不能连接到Redhat的公共YUM源,因此采用ISO方式使用本地的YUM

11、源# vi /etc/yum.repos.d/local.reporhel-7-servername=RHEL 7 SERVER packagesbaseurl=file:/mntenabled=1gpgkey=file:/mnt/RPM-GPG-KEY-redhat-releasegpgcheck=1运行yum clean all来清除yum 缓存,防止不正确的yum缓存的影响运行yum repolist查看配置的yum源信息并通过 Yum list 命令来校验安装源是否生效,如出现图 4 所示,则表明Yum源已经生效。图 4.GPFS安装源建立好安装源及解决了软件包依赖关系之后,下一步将介

12、绍如何在各个主机上完成系统基本环境的配置,包括host文件修改、SSH的配置、防火墙及NTP的配置。系统基本环境准备修改Host文件:修改三个节点的/etc/hosts文件,应包含组内的节点IP和hostname。修改防火墙配置:为了方便实验,我们将关闭系统防火墙与Selinux。修改系统NTP配置:推荐用户在所有的系统节点上配置Network Time Protocol(NTP)服务,确保所有系统节点间时间同步。如果时间不同步,可能引起debugging问题或者授权问题。确保系统时区设置正确,如不正确使用如下命令修改。首先修改配置文件vim /etc/ntp.conf,加入客户的ntp se

13、rver地址,之后执行ntpate服务器IP来校验时间。修改SSH免密码登陆:管理员使用ssh-keygen工具产生key文件#ssh-keygen -t rsa在每个RHEL节点生成ssh-key之后一路回车Generating public/private rsa key pair.Enter file in which to save the key (/.ssh/id_rsa): 回车Created directory /.ssh.Enter passphrase (empty for no passphrase): 回车Enter same passphrase again: 回车Y

14、our identification has been saved in /.ssh/id_rsa.Your public key has been saved in /.ssh/id_rsa.pub.The key fingerprint is:db:0b:23:aa:81:a9:b2:41:33:97:8b:6b:b7:24:fc:2c rootnode1在节点1上复制rsa.pub为authorized_keys,并将其复制到节点2和节点3#cp /.ssh/id_rsa.pub /.ssh/authorized_keys# scp node2:/.ssh/id_rsa.pub /tmp

15、/id_rsa.pub2# scp node3:/.ssh/id_rsa.pub /tmp/id_rsa.pub3#cat /tmp/id_rsa.pub2 /.ssh/authorized_keys#cat /tmp/id_rsa.pub3 /.ssh/authorized_keys#scp /.ssh/authorized_keys node2:/.ssh/authorized_keys#scp /.ssh/authorized_keys node3:/.ssh/authorized_keys验证所有节点的ssh通讯,如能显示日期验证通过在节点1# ssh GPFS-SERVER02 da

16、te; ssh GPFS-SERVER03 date在节点21 date; ssh GPFS-SERVER03 date在节点3# ssh GPFS-SERVER01 date; ssh GPFS-SERVER02 date以上配置完成后,重启所有节点,准备进行GPFS软件的安装。GPFS的安装如上表2,已经清晰的列出需要依赖哪些安装包确保GPFS的成功安装。配置好 yum 源之后,只需要输入以下命令(如图 5 所示),就可以自动安装依赖包。图 5.GPFS主机安装依赖包安装完成后,将GPFS软件包Spectrum_Scale_Advanced-x86_64-Linux-install上传到所

17、有的节点服务器,通过chmod+x赋予执行权限。解压安装文件./ Spectrum_Scale_Advanced-x86_64-Linux-install text-only,根据提示按“1”,并接受license协议继续,默认安装文件会被解压到/usr/lpp/mmfs/目录下。之后建立unused文件夹,并移动扩展名为deb、sles、e16、tct的文件到unused文件夹内,最后执行mmbuildgpl完成GPFS的安装,以上步骤在三个节点上依次执行,如图6所示。图 6 GPFS软件安装依照本章介绍来看,GPFS软件已经安装,下一章将介绍如何验证GPFS软件是否正确的被安装,符合群集搭

18、建条件。GPFS软件验证在三个节点上,使用#rpm qa | grep gpfs命令验证GPFS软件版本符合实验要求。为了系统可以直接识别和调用GPFS命令,我们将GPFS的路径添加到PATH环境变量中。执行/usr/lpp/mmfs/bin到/root/.bash_profile环境变量文件中,如图7所示。图 7.PATH环境变量修改之后在三个节点上执行以下命令,验证环境变量是否生效,如图8所示。图 8.GPFS变量验证到目前为止,GPFS的安装工作已经完成,经过验证,软件符合群集搭建要求。下一章将主要介绍如何配置GPFS,使其可以正常的提供群集功能。GPFS的配置GPFS的配置工作可以在三

19、个节点的任意主机上执行,结果会通过GPFS同步机制自动复制到其它节点。本章将通过配置角色、创建群集、创建NSD、创建文件系统四大部分来详细介绍。配置角色GPFS群集中有三个主要的角色需要提前定义,分别是主配置服务器、辅助配置服务器和仲裁服务器。此项目我们需要建一个三节点的GPFS CLUSTER。以GPFS-SERVER01为主配置服务器,GPFS-SERVER02为备用配置服务器,并将三个节点均作为quorum与manager节点,分别以ssh,scp作为RemoteShell和RemoteFileCopy命令。在批量创建中,建议通过创建nodefile的形式创建群集。这样可以实现一次编辑,

20、批量部署,简化配置。在GPFS-SERVER1上建立/home/gpfs 目录,并创建节点配置文件testnodefile,如图9所示图 9.GPFS角色配置配置完成后,就可以通过GPFS内置指令创建GPFS群集,所有角色将自动按照事先定义的服务器自动推送与设置。创建群集GPFS群集创建是非常简单的操作,IBM在创建方面做的很精细,管理员只需要记住一个简单的指令,就可以创建出符合企业规模要求的群集。如图 10 所示操作,利用mmcrcluster 来创建群集,并如图 11 所示操作,输入mmchlicense server接受许可认证。图 10.GPFS创建如上指令-N是制定之前建立的node

21、file文件,-p是指定谁承担主配置服务器角色,-s是指定辅助配置服务器,-r和-R分别是指定RemoteShell和RemoteFileCopy命令的实现方式。图 11.GPFS接受许可我们可以通过运行mmlscluster查看集群配置,确认群集配置是否按照之前nodefile的要求去配置。如图12所示启动群集并验证配置。图 12.GPFS启动群集至此我们已经完成 GPFS 的全部配置,群集服务已经处于激活状态。在下一章中,将添加磁盘作为GPFS的共享存储池介质,供服务调用。创建NSD我们的物理服务器内置磁盘为两种SSD和SAS。按照如下规则创建NSD:所有ssd磁盘创建为system池,容

22、纳metadata数据,所有的SAS磁盘创建为fpodata池,用于容纳data数据,每台服务器都是一个单独的失败域。由于内置磁盘数过多,所以我们将通过建立NSDfile的方式,批量创建NSD盘,自动加入到相应的存储池中。在GPFS-SERVER01上创建并编辑/home/gpfs/testNSDfile文件(nsdname命名中不能使用“-”),如图13所示(滑动看代码)%pool: pool=system blockSize=256K layoutMap=cluster allowWriteAffinity=no%pool: pool=fpodata blockSize=1M layout

23、Map=cluster allowWriteAffinity=yes writeAffinityDepth=1 blockGroupFactor=1%nsd: nsd=SERVER01SSD1 device=/dev/sdw servers=GPFS-SERVER01 usage=metadataOnly failureGroup=101 pool=system%nsd: nsd=SERVER01SSD2 device=/dev/sdx servers=GPFS-SERVER01 usage=metadataOnly failureGroup=101 pool=system%nsd: nsd=

24、SERVER01SSD3 device=/dev/sdt servers=GPFS-SERVER01 usage=metadataOnly failureGroup=101 pool=system%nsd: nsd=SERVER01SSD4 device=/dev/sdy servers=GPFS-SERVER01 usage=metadataOnly failureGroup=101 pool=system%nsd: nsd=SERVER01SSD5 device=/dev/sdv servers=GPFS-SERVER01 usage=metadataOnly failureGroup=1

25、01 pool=system%nsd: nsd=SERVER01SSD6 device=/dev/sdr servers=GPFS-SERVER01 usage=metadataOnly failureGroup=101 pool=system%nsd: nsd=SERVER01SSD7 device=/dev/sdu servers=GPFS-SERVER01 usage=metadataOnly failureGroup=101 pool=system%nsd: nsd=SERVER01SSD8 device=/dev/sds servers=GPFS-SERVER01 usage=met

26、adataOnly failureGroup=101 pool=system%nsd: nsd=SERVER01SAS00 device=/dev/sda servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS01 device=/dev/sdb servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS02 device=/dev/sdc servers=

27、GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS03 device=/dev/sdd servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS04 device=/dev/sdf servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS05 dev

28、ice=/dev/sde servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS06 device=/dev/sdh servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS07 device=/dev/sdj servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd:

29、nsd=SERVER01SAS08 device=/dev/sdk servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS09 device=/dev/sdg servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS10 device=/dev/sdi servers=GPFS-SERVER01 usage=dataOnly failureGroup=11

30、01 pool=fpodata%nsd: nsd=SERVER01SAS11 device=/dev/sdm servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS12 device=/dev/sdo servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS13 device=/dev/sdn servers=GPFS-SERVER01 usage=dat

31、aOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS14 device=/dev/sdp servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER01SAS15 device=/dev/sdl servers=GPFS-SERVER01 usage=dataOnly failureGroup=1101 pool=fpodata%nsd: nsd=SERVER02SSD1 device=/dev/sds servers=GPF

32、S-SERVER02 usage=metadataOnly failureGroup=201 pool=system %nsd: nsd=SERVER02SSD2 device=/dev/sdr servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=system %nsd: nsd=SERVER02SSD3 device=/dev/sdv servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=system %nsd: nsd=SERVER02SSD4

33、device=/dev/sdy servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=system %nsd: nsd=SERVER02SSD5 device=/dev/sdx servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=system %nsd: nsd=SERVER02SSD6 device=/dev/sdt servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=sys

34、tem %nsd: nsd=SERVER02SSD7 device=/dev/sdw servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=system %nsd: nsd=SERVER02SSD8 device=/dev/sdu servers=GPFS-SERVER02 usage=metadataOnly failureGroup=201 pool=system%nsd: nsd=SERVER02SAS00 device=/dev/sda servers=GPFS-SERVER02 usage=dataOnly fa

35、ilureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS01 device=/dev/sdd servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS02 device=/dev/sde servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS03 device=/dev/sdg servers=GPFS-SE

36、RVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS04 device=/dev/sdc servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS05 device=/dev/sdb servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS06 device=

37、/dev/sdf servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS07 device=/dev/sdh servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS08 device=/dev/sdk servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: n

38、sd=SERVER02SAS09 device=/dev/sdm servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS10 device=/dev/sdj servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS11 device=/dev/sdp servers=GPFS-SERVER02 usage=dataOnly failureGroup=2

39、101 pool=fpodata %nsd: nsd=SERVER02SAS12 device=/dev/sdl servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS13 device=/dev/sdn servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS14 device=/dev/sdi servers=GPFS-SERVER02 usage

40、=dataOnly failureGroup=2101 pool=fpodata %nsd: nsd=SERVER02SAS15 device=/dev/sdo servers=GPFS-SERVER02 usage=dataOnly failureGroup=2101 pool=fpodata%nsd: nsd=SERVER03SSD1 device=/dev/sds servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system %nsd: nsd=SERVER03SSD2 device=/dev/sdv serv

41、ers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system%nsd: nsd=SERVER03SSD3 device=/dev/sdx servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system%nsd: nsd=SERVER03SSD4 device=/dev/sdu servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system%nsd: nsd=SERVER03S

42、SD5 device=/dev/sdw servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system%nsd: nsd=SERVER03SSD6 device=/dev/sdr servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system%nsd: nsd=SERVER03SSD7 device=/dev/sdt servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=s

43、ystem%nsd: nsd=SERVER03SSD8 device=/dev/sdy servers=GPFS-SERVER03 usage=metadataOnly failureGroup=301 pool=system%nsd: nsd=SERVER03SAS00 device=/dev/sdb servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS01 device=/dev/sdd servers=GPFS-SERVER03 usage=dataOnly fai

44、lureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS02 device=/dev/sdg servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS03 device=/dev/sdh servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS04 device=/dev/sdi servers=GPFS-SERVER

45、03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS05 device=/dev/sdj servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS06 device=/dev/sdl servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS07 device=/dev/sd

46、p servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS08 device=/dev/sdm servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS09 device=/dev/sdf servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER0

47、3SAS10 device=/dev/sdn servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS11 device=/dev/sdk servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS12 device=/dev/sda servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpo

48、data%nsd: nsd=SERVER03SAS13 device=/dev/sde servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS14 device=/dev/sdo servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata%nsd: nsd=SERVER03SAS15 device=/dev/sdc servers=GPFS-SERVER03 usage=dataOnly failureGroup=3101 pool=fpodata图 13.编辑NSD文件完成配置后,将通过上述NSD文件,创建NSD磁盘。在创建NSD过程中,-v 选项缺省值为yes,表示创

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论