GPFS 3.4中如何增加一个GPFS集群节点、删除一个节点等

GPFS 的全称为:General Parallel ">File System,即通用并行文件系统。IBM GPFS 是一个可自由扩展的高性能并行文件系统,它主要有以下三个特点:

基于高可用的集群架构,可灵活扩展 支持并行的共享
磁盘访问方式,提供单一命名空间 针对并行 I/O 负载优化,提供极高的 I/O 处理能力

本文主要立足于 GPFS 配置的变更与性能的测试,因此 GPFS 的安装,在本文不做赘述。

GPFS 的配置变更

动态增加一个 NSD client

我们以一个 6 节点的 GPFS 集群为例:

图 1. 查看一个 6 节点的 GPFS 集群

首先,设置 NSD server 对 NSD 磁盘的访问顺序,以便实现负载均衡和多路径。

修改之前,需要先卸载所有节点上的 gpfs 文件系统:

图 2. 卸载一个 GPFS 文件系统

设置磁盘的访问优先级:

mmchnsd "nsd1:78001_lpar2,78001_lpar3,78002_lpar1" mmchnsd "nsd2:78001_lpar2,78001_lpar3,78002_lpar1" mmchnsd "nsd3:78001_lpar3,78001_lpar2,78002_lpar2" mmchnsd "nsd4:78002_lpar1,78002_lpar2,78002_lpar3" mmchnsd "nsd5:78002_lpar2,78002_lpar1,78002_lpar3" mmchnsd "nsd6:78002_lpar3,78002_lpar2,78002_lpar1" mmchnsd "nsd7:78002_lpar4,78002_lpar2,78002_lpar1" mmchnsd "nsd8:78002_lpar1,78001_lpar2,78001_lpar3" mmchnsd "nsd9:78002_lpar2,78001_lpar3,78002_lpar3" mmchnsd "nsd10:78001_lpar3,78002_lpar3,78001_lpar2"

然后,确认变更已经生效:

图 3. 查看 NSD 磁盘访问路径

接下来,给 GPFS 集群增加第 7 个节点“78001_lpar1”

首先确认节点 78001_lpar1 不属于任何 GPFS 集群:

图 4. 查看节点状态

时间: 2024-09-20 17:22:44

GPFS 3.4中如何增加一个GPFS集群节点、删除一个节点等的相关文章

在linux下,怎么创建多个tomcat,也就是说创建一个tomcat集群,分散一个tomcat的压力

问题描述 要求就是题目说的,不知道我说明白了没,就是建立一个tomcat集群,分散一个tomcat压力.请高手指点一下!! 解决方案 解决方案二:使用apache,用google搜索一下apahcetomcat群集,很多帖子说明怎么做的.解决方案三:具体忘了,大概就是server.xml中修改配置,windows和linux没有多大的不同

手把手教你用Docker部署一个MongoDB集群

本文讲的是手把手教你用Docker部署一个MongoDB集群,[编者的话]MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中最像关系数据库的.支持类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,而且还支持对数据建立索引.本文介绍了如何使用Docker搭建MongoDB集群. 本文我会向大家介绍如何使用Docker部署一个MongoDB集群,具体如下: 2.6.5版本的MongoDB 有3个节点的副本集(Replica set) 身份验证 持

hadoop集群想做一个类似云存储的小东西,如何实现用户登录并且分配一定比例的存储空间?

问题描述 hadoop集群想做一个类似云存储的小东西,如何实现用户登录并且分配一定比例的存储空间?目前,只是用SPRINGMVC做了简单的显示功能.想加上用户注册,然后分配一定的存储空间.对用户名与密码进行持久化管理.目前想的是mysql的cluster版本做这个.用户注册之后写入mysql数据库,然后查找数据库中user表,如果存在则可以登录并且上传文件到自己的空间中.这只是一个想法,不知道可行么?或者有别的方法吗? 解决方案

Ceph分布式存储学习指南2.2 从零开始部署你的第一个Ceph集群

2.2 从零开始部署你的第一个Ceph集群 要部署第一个Ceph集群,我们将在三台虚拟机中使用ceph-deploy工具来安装和配置Ceph.ceph-deploy工具是Ceph软件定义存储的一部分,它可以使得你能够更容易地部署和管理Ceph存储集群. 由于我们已经创建了三台运行CentOS 6.4的虚拟机,并且它们都能访问因特网,也能通过私网相互通信.我们将如下图所示把这些虚拟机配置成Ceph存储集群.   1)将ceph-node1配置成可以免SSH密码登录其他节点.在ceph-node1上

尝鲜 | 在Docker中运行你的Mesos集群

本文讲的是尝鲜 | 在Docker中运行你的Mesos集群,[编者的话]本文介绍了在Docker中运行Apache Mesos,Mesos官方网站提供了安装包来直接运行它,但文中尝试使用Docker来运行Mesos,Mesosphere也提供了相应的镜像.在Docker中运行Mesos也有它的好处,读者可以尝试下. 很多人都已经开始在Apache Mesos中运行容器化的应用,我们也是这样.尽管我们尝试在容器中运行应用,但我们还是通过传统的安装包来在自己的主机上安装Mesos.尽管这是最简单和直

Linux中使用ipvsadm配置LVS集群的基本方法

  LVS集群有DR.TUN.NAT三种配置模式,可以对www服务.FTP服务.MAIL服务等做负载均衡,下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置. 一. Director Server的配置 在Director Server上配置LVS负载均衡集群,有两种方法: a. 通过ipvsadm命令行进行配置 b. 通过Redhat提供的工具piranha来配置LVS 通过ipvsadm命令行方式配置LVS 安装IPVS后,就可以配置LVS集群了,首先在Director

LinkedIn开源Cruise Control:一个Kafka集群自动化运维新利器

Kafka近年来日渐流行,LinkedIn的1800台Kafka服务器每天处理2万亿个消息.虽说Kafka运行得十分稳定,但要大规模运行Kafka,在运维方面仍然面临巨大的挑战.每天都会有broker崩溃,导致集群工作负载不均衡.SRE团队需要花费大量的时间和精力来重分配分区,以便让集群重新恢复均衡. 自动化因此变得十分重要,这也就是为什么我们要开发Cruise Control:持续监控Kafka集群,自动调整分配给服务器的资源,达到预期的性能目标.用户设定目标,Cruise Control对集

群主删除一个群成员,再次通过群id获取群信息,需要重新登录才成功

问题描述 我项目里面引入环信demo,进行了一些修改,但是作为群主,如果删除一个群成员,通过群id获取群信息失败,group = EMGroupManager.getInstance().getGroupFromServer(toChatUsername);方法不执行再次登录才可以~ 解决方案 获取群信息失败报错是什么

一个树莓派集群 (VAX)

这次被用来仿真的MicroVAX设备是比较现代的,而且比IBM 4381处理器要更小一些,然而VAX体系结构和OpenVMS操作系统毫不逊色,在1989年的简介中,一个入门级别的microvax3900 会花费你至少120,000美元,而且,就像ibm的VM操作系统一样,你会误以为openVMS已经不复存在了,而实际上OpenVMS目前仍可运行诸多至关重要的繁重工作. SimH是一个相当出色的软件,通过它可以对VAX硬件仿真进行.在这个软件上运行OpenVMS,需要相应的执照,而幸运的是,能够使