vdsm on oVirt HOST depend multipathd but must manual modify blacklist in multipath.conf

oVirt支持NFS, GlusterFS, FC, iSCSI等存储方式, 所以对于HOST节点, 在加入oVirt后, 可能出现一点小问题, 某些设备变成了dm设备, 并且用以前的方式无法挂载了.

oVirt这么做的目的应该是配合FC和iSCSI的使用, 因为一般FC和iSCSI都可以用到多路径来获的链路冗余.

无法以原设备名挂载, 原因是vdsmd这个服务依赖multipathd服务.

[root@150 etc]# cd /etc/init.d/
[root@150 init.d]# grep -r multi *|less
vdsmd:NEEDED_SERVICES="multipathd rpcbind ntpd wdmd sanlock network libvirtd

同时oVirt修改的multipath.conf的配置有点问题, 需要修改一下. 在修改这个配置文件前, 我们可以手工将这些DM设备释放掉.

释放掉之后就可以使用了.

未释放前, 直接挂载会报错.
[root@150 /]# mount /dev/sdb1 /data01
mount: /dev/sdb1 already mounted or /data01 busy
[root@150 /]# mount /dev/sdd1 /data01
mount: /dev/sdd1 already mounted or /data01 busy

因为这几个设备已经在DM设备了
[root@150 rules.d]# multipath -ll
20050430000000000 dm-1 ATA,OCZ-REVODRIVE3
size=224G features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=1 status=active
| `- 3:0:126:0 sdc 8:32 active ready running
`-+- policy='round-robin 0' prio=1 status=enabled
  `- 4:0:126:0 sdd 8:48 active ready running
360026b902fe2ce0018993f2f0c5734b3 dm-0 DELL,PERC 6/i
size=186G features='0' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=1 status=active
  `- 0:2:1:0   sdb 8:16 active ready running

[root@150 rules.d]# dmsetup ls
20050430000000000       (253:1)
360026b902fe2ce0018993f2f0c5734b3       (253:0)
360026b902fe2ce0018993f2f0c5734b3p1     (253:3)
20050430000000000p1     (253:2)

移除这些DM设备
[root@150 rules.d]# dmsetup remove -f 20050430000000000p1

[root@150 rules.d]# multipath -ll
360026b902fe2ce0018993f2f0c5734b3 dm-0 DELL,PERC 6/i
size=186G features='0' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=1 status=active
  `- 0:2:1:0   sdb 8:16 active ready running

[root@150 rules.d]# dmsetup remove -f 360026b902fe2ce0018993f2f0c5734b3p1

现在可以加载了.
[root@150 rules.d]# mount /dev/sdb1 /data01
[root@150 rules.d]# mount /dev/sdd1 /data02

[root@150 ~]# e2label /dev/sdb1 sdb1
[root@150 ~]# e2label /dev/sdd1 sdd1
# vi /etc/fstab
LABEL=sdb1  /data01  ext4  defaults,noatime,nodiratime 0 0
LABEL=sdd1  /data02  ext4  defaults,noatime,nodiratime 0 0

如果要重启生效的话, 可以修改一些multipath.conf, 把不需要加入多路径的设备放到黑名单里面.

vi /etc/multipath.conf
blacklist {
         devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
         devnode "^hd[a-z]*"
         devnode "^sd[a-d]$"
}
时间: 2024-08-04 05:26:03

vdsm on oVirt HOST depend multipathd but must manual modify blacklist in multipath.conf的相关文章

oVirt host deploy

前面介绍了oVirt engine和report的部署, 参考 :  http://blog.163.com/digoal@126/blog/static/1638770402014628114756319/ http://blog.163.com/digoal@126/blog/static/163877040201462942137640/ 这里要介绍一下使用ovirt engine管理平台进行oVirt宿主机的部署. oVirt的架构介绍参考 :  http://www.ovirt.org

oVirt Architecture

[原文] http://www.ovirt.org/Architecture Architecture   Contents  [hide]  1 oVirt Architecture 1.1 Overall architecture 1.2 Engine 1.2.1 Engine-Core Architecture 1.3 Host Agent (VDSM) 1.3.1 Hooks mechanism 1.3.2 MOM integration 1.4 Web-based User Inter

oVirt usage attention

汇总一下oVirt的使用注意事项. 1. 数据库相关 http://blog.163.com/digoal@126/blog/static/1638770402014628114756319/ http://blog.163.com/digoal@126/blog/static/163877040201462942137640/ 1.1 建议配置ovirt engine时, 数据库用户提前改成超级用户 1.2 建议数据库的owner是连接用户 1.3 不建议自建schema, 建议使用publi

use glusterfs in oVirt

使用glusterfs前, 请先阅读 1. http://blog.163.com/digoal@126/blog/static/163877040201476115823746/ 2. http://blog.163.com/digoal@126/blog/static/16387704020147623132332/ 3. http://blog.163.com/digoal@126/blog/static/16387704020147632024869/ 4. http://wiki.ov

Storage extend online in Linux

环境 :  CentOS 5.x X64 Linux系统. HBA : 15:00.0 Fibre Channel: QLogic Corp. ISP2432-based 4Gb Fibre Channel to PCI Express HBA (rev 03) 15:00.1 Fibre Channel: QLogic Corp. ISP2432-based 4Gb Fibre Channel to PCI Express HBA (rev 03) 存储 :  HP MSA2312FC 需求

使用OpenFiler来模拟存储配置RAC中ASM共享盘及多路径(multipath)的测试

第一章 本篇总览   之前发布了一篇<Oracle_lhr_RAC 12cR1安装>,但是其中的存储并没有使用多路径,而是使用了VMware自身提供的存储.所以,年前最后一件事就是把多路径学习一下,本文介绍了OpenFiler.iSCSI和多路径的配置. 本文内容:     第二章 安装OpenFiler OpenFile是在rPath Linux基础上开发的,它能够作为一个独立的Linux操作系统发行.Openfiler是一款非常好的存储管理操作系统,开源免费,通过web界面对存储磁盘的管理

Use LDAP store PostgreSQL Connection parameter &amp; client use it with .pg_service.conf

前面几篇BLOG谈了一下PostgreSQL的用户密码认证可以通过LDAP 来做AUTH. 客户端提交用户和密码, PostgreSQL server根据提供客户端的用户, 以及pg_hba.conf中的配置, 到LDAP server查找匹配条目. 如果找到了匹配的话, 根据客户端提供的密码在LDAP server进行认证. 客户端只和PostgreSQL server交互, 认证部分由PostgreSQL server和LDAP server完成. 所以PostgreSQL server编译

mkfs -t ext3 错误/dev/sdxx is apparently in use by the system; 解决方法

在存储上共享了一个500G的空间,映射到Linux系统提供上,环境由2个节点组成.  一. 测试一: 直接mount 用fdisk 格式化之后如下: [root@rac1 u01]# fdisk -l -- Disk /dev/sdk: 536.8 GB, 536870912000 bytes 255 heads, 63 sectors/track, 65270cylinders Units = cylinders of 16065 * 512 = 8225280bytes     Devi

php自己实现memcached的队列类

add('1asdf'); * $obj->getQueueLength(); * $obj->read(11); * $obj->get(8); */ class memcacheQueue{ public static $client; //memcache客户端连接 public $access; //队列是否可更新 private $currentSide; //当前轮值的队列面:A/B private $lastSide; //上一轮值的队列面:A/B private $sid