RHCS Oracle HA for OEL5.8 KVM实践配置

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://koumm.blog.51cto.com/703525/1304185

1.通过Openfiler实现iscsi共享存储
2.采用OEL6.3KVM虚拟平台下安装两个OEL5.8x64KVM虚拟机实现两RHCS5集群节点
3.通过KVM虚拟fence实现fence功能,虽然不能完全实现功能,可以了解与学习RHCS过程。注:采用VMwareESXi虚拟机安装话,可以采用vmware-fence-soap。
4.本文建搭建RHCS实验环境测试RHCSGFS2集群文件系统功能与OracleHA功能,经过配置,GFS2文件系统可以很好的工作。
本文出自:http://koumm.blog.51cto.com
参考:VMwareESXi虚拟化采用VMwarefence实现的的RHCSOracleHA,本文是该文的再配置过程,重点理解GFS2配置,加深学习映像,经过近段时间的再次学习,主要问题还要在fence设备上。采用kvmRHEL6.X虚拟机可能会很好的实现fence功能,由于本文采用OEL5.8虚拟机,该方式配置还是一个遗憾,本文只是仅做安装过程记录。

一、准备基础环境

1.网络环境准备

KVM虚拟机安装配置可以参考:http://koumm.blog.51cto.com/703525/1288795

node01节点
eth0:192.168.233.141

node02节点
eth0:192.168.233.142

openfiler节点
eth0:192.168.233.143

2.配置YUM安装源

在node01,node02上配置如下yum源。

(1)挂载光盘ISO


1

# mount /dev/cdrom /mnt

(2)配置YUM客户端
说明:通过本地光盘做为yum安装源。

(3)openfileriscsi存储配置
具体配置略,共划分两块lun,一块10G配置GFS,一块128mb配置表决盘。

二、RHCS软件包的安装

1.配置host文件

2.在node1上安装luci及RHCS软件包

安装luci、ricci、rgmanager、gfs、cman

(1)node1安装RHCS软件包。


1

# yum install luci ricci cman cman-devel gfs2-utils lvm2-cluster rgmanager system-config-cluster -y

(2)配置RHCS服务开机启动

应为集群配置文件还没有产生配置文件/etc/cluster/cluster.conf。

(3)挂载存储

#在node01上配置


1

2

3

4

# rpm-ivh iscsi-initiator-utils-6.2.0.872-13.el5.x86_64.rpm

# chkconfig iscsi --level 35 on

# chkconfig iscsid --level 35 on

# service iscsi start

#连接挂载存储


1

2

3

#iscsiadm -m discovery -t st -p 192.168.233.143

192.168.233.143:3260,1iqn.2006-01.com.openfiler:tsn.713bbba5efdb

#iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.713bbba5efdb -p 192.168.233.143 -l

3.在node2上安装RHCS软件包

安装ricci、rgmanager、gfs、cman

(1)node02安装RHCS软件包。


1

#yum install ricci cman cman-devel gfs2-utils lvm2-cluster rgmanager system-config-cluster -y

(2)配置RHCS服务开机启动

应为集群配置文件还没有产生配置文件/etc/cluster/cluster.conf。

(3)挂载存储

#在node02上配置


1

2

3

4

rpm -ivh iscsi-initiator-utils-6.2.0.872-13.el5.x86_64.rpm

chkconfig iscsi --level 35 on

chkconfig iscsid --level 35 on

service iscsi start

#连接挂载存储


1

2

3

# iscsiadm -m discovery -t st -p 192.168.233.143

192.168.233.143:3260,1iqn.2006-01.com.openfiler:tsn.713bbba5efdb

# iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.713bbba5efdb -p 192.168.233.143 -l

三、RHCS集群配置

1.在node01管理节点上安装启动luci服务

说明:在node01节点上进行操作。

(1)luci初始化
#luci_admininit

(2)配置管理地址
https://192.168.233.141:8084
admin/111111

2.登录luci管理界面开始配置集群

(1)输入登录名与密码登录

(2)登录进管理界面,点击cluster->CreateaNewCluster->填入如下内容:

然后提交,集群会经过install,reboot,config,join两步过程才能成功。
说明:
1)这步会生成集群配置文件/etc/cluster/cluster.conf
2)也可以直接创建该配置文件。

(3)集群配置完毕

点击cluster,可以看到集群与节点都正确加入。

3.两节点分别启动集群服务

(1)ssh到node01上,启动cman服务。

(2)ssh到node02上,启动cman服务。

4.添加故障转移域

(1)配置与准备kvmfence配置,本方式主要是OEL5.X针对KVM虚拟机做RHCS虚拟机的情况。

5.添加与配置fence设备

(1)配置与准备kvmfence配置,本方式主要是OEL5.X针对KVM虚拟机做RHCS虚拟机的情况。

(2)配置与准备kvmfence配置,本方式主要是OEL5.X针对KVM虚拟机做RHCS虚拟机的情况。

(3)分别为node01,node02结点添加fence设备。

node01节点

node02节点

三、RHCS集群GFS2集群文件系统配置

1.配置GFS服务

(1)node1启动CLVM的集成cluster锁服务


1

2

3

# lvmconf --enable-cluster

# chkconfig clvmd on

# service clvmd start

(2)node2启动CLVM的集成cluster锁服务

2.配置GFS2集群文件系统

(1)在任意一节点对磁盘进行分区,划分出sda1。然后格式化成gfs2.


1

# fdisk /dev/sda

(2)node01节点上通过共享磁盘创建gfs2集群卷组


1

2

Error locking on node node02: Volume group for uuid not found: QkM2JYKg5EfFuFL6LzJsg7oAfK4zVrkytMVzdziWDmVhBGggTsbr47W1HDEu8FdB

Failed to activate new LV.

出现以上提示,需要在node2上创建物理卷,有可能需要重启node02。

node02节点上:

回到node1节点上:

(3)格式化GFS文件系统
node01节点上:


1

[root@node01 ~]# mkfs.gfs2 -p lock_dlm -t RHCS_HA:gfs2 -j 3 /dev/rhcsgfs/var01

说明:
RHCS_HA:gfs2这个rhcs就是集群的名字,gfs2是定义的名字,相当于标签吧。
-j是指定挂载这个文件系统的主机个数,不指定默认为1即为管理节点的。
这里实验有两个节点,加上管理主机为3

3.挂载GFS文件系统

(1)node1,node2手动挂载测试,挂载成功后,创建文件测试集群文件系统情况。


1

2

3

# chkconfig gfs2 on

# service gfs2 start

# mount.gfs2  /dev/rhcsgfs/var01  /oradata

node01节点:

node02节点:

(2)配置开机自动挂载
#node01节点:

#node02节点:

(3)测试集群文件系统读写情况
在node01节点上/oradata目录下创建一个文件,再在第二个节点上查看确认。

4.配置表决磁盘

#表决磁盘是共享磁盘,10M大小就可以了,无需要太大,本例采用/dev/sdb1来进行创建。


1

[root@node1 ~]# fdisk /dev/sdb

(1)创建表决磁盘


1

[root@node1~]# mkqdisk -c /dev/sdb1 -l qdisk

(2)查看表决磁盘信息


1

[root@node01~]# mkqdisk -L

(3)配置表决磁盘qdisk

#进入管理界面cluster->clusterlist->点击ClusterName:RHCS_HA;
#选择"QuorumPartition",选择"useaQuorumPartition"

(4)启动qdisk服务

node01节点:


node02节点:


1

2

chkconfig qdiskd on

service qdiskd start

四、RHCS环境Oracle10g安装配置

1.node01节点上

(1)准备oracle安装环境
(2)安装oracle数据库软件及补丁
(3)netca
(4)dbca创建数据库,数据库文件,控制文件,redolog文件,闪回区,规档等都创建在/oradata集群文件系统上。

2.node02节点上

(1)准备oracle安装环境
(2)安装oracle数据库软件及补丁
(3)netca

3.从node01拷贝相关参数文件到node02上

(1)node1打包参数文件


1

2

3

4

5

6

7

8

9

10

$ cd /u01/app/oracle/product/10.2.0/db_1

$ tar czvf dbs.tar.gzdbs

dbs/

dbs/init.ora

dbs/lkORCL

dbs/hc_orcl.dat

dbs/initdw.ora

dbs/spfileorcl.ora

dbs/orapworcl

$scp dbs.tar.gz node02:/u01/app/oracle/product/10.2.0/db_1/

(2)node2上


1

2

3

4

# su - oracle

$ mkdir -p /u01/app/oracle/admin/orcl/{adump,bdump,cdump,dpdump,udump}

$ cd /u01/app/oracle/product/10.2.0/db_1/

$ tar zxvf dbs.tar.gz

4.添加Oracle启动与关闭脚本资源

#启动oracle数据库的脚本,放在/etc/init.d/下面,名称为oracle,不用配置成服务形成,该脚本会由RHCS服务来管理。
#分别在node01,node02上创建如下脚本。


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

# vi /etc/init.d/oracle

#!/bin/bash

export ORACLE_HOME=/u01/app/oracle/product/10.2.0/db_1

export ORACLE_SID=orcl

start() {

su - oracle<<EOF

echo "Starting Listener ..."

$ORACLE_HOME/bin/lsnrctl start

echo  "Starting Oracle10g Server.. "

sqlplus / as sysdba

startup

exit;

EOF

}

stop() {

su - oracle<<EOF

echo "Shutting down Listener..."

$ORACLE_HOME/bin/lsnrctl stop

echo "Shutting down Oracle10g Server..."

sqlplus / as sysdba

shutdown immediate;

exit

EOF

}

case "$1" in

start)

start

;;

stop)

stop

;;

*)

echo "Usage: $0 {start|stop}"

;;

esac

chmod +x /etc/init.d/oracle

五、RHCS环境Oracle10g安装配置

1.配置集群IP资源

点击cluster->RHCS_HA->Resources->AddaResources
选择IP,输入:192.168.233.150
选中monitorlink
点击submit

2.配置集群Oracle启动脚本资源

点击cluster->RHCS_HA->Resources->AddaResources
选择name,输入:dbora
选择fullpathtoscriptfile,输入:/etc/init.d/oracle
点击submit

3.添加数据库服务

(1)创建服务过程

点击cluster->rhcs->Services->AddaServices
ServiceName:oracle10g
选中Automaticallystartthisservice
选中Failoverdomain选择刚创建的rhcs_failover
选中Reoverypolicy(恢复策略)restart

点击"addaresourcetothisservice"添加之前创建的"IP资源","Oracle脚本资源"。
选择"enablethisservice",点击"go",即可创建oracle10g服务

启动此服务。

查看启动后状态,可以看oracle服务运行在node01节点上。

六、RHCSOralceHA测试

1.查看RHCSHA集群IP资源

(1)在节点node01上查看RHCS服务状态

(2)在节点node02上查看RHCS服务状态

(3)客户端测试数据库

2.手动RHCSOracleHA服务节点切换测试

(1)在任何节点上执行切换服务命令,本例在node01执行切换命令

(2)在node02节点上查看,服务切换正常,服务与IP也都切换到节点2上了。

3.测试故障自动切换1

说明:RHCSHA配置过程中一个关键的部分是配置fence设备,采用一些硬件设备可以使用很好的实现fence功能,由于本文是采用OEL5.8KVM虚拟机实现虚拟fence,所以在RHCS切换功能上需要充分了解,请使用真正意义上的fence设备实现该功能。

(1)本例在node01执行切换命令

将node02destroy关机

将node02开机后,集群服务才切换到node01节点上。

本文安装完毕。

本文出自 “koumm的linux技术博客” 博客,请务必保留此出处http://koumm.blog.51cto.com/703525/1304185

时间: 2024-09-17 03:41:50

RHCS Oracle HA for OEL5.8 KVM实践配置的相关文章

Redhat 5.8 x64 RHCS Oracle 10gR2 HA实践配置

配置说明: 1. 通过Openfiler实现iscsi共享存储 2. 通过VMware ESXi5 虚拟fence实现fence功能. 3. 结合Redhat 5.8 vmware-fence-soap实现RHCS fence设备功能. 4. 本文原创建搭建RHCS实验环境测试RHCS Oracle HA功能. 本文链接:http://koumm.blog.51cto.com/703525/1161791 一.准备基础环境 1. 网络环境准备 node1,node2节点 # cat /etc/h

Oracle 12C Active Data Guard Far Sync 配置

Active Data Guard Far Sync是Oracle 12c的新功能(也称为Far Sync Standby),Far Sync功能的实现是通过在距离主库(Primary Database)相对较近的地点配置Far Sync实例,主库(Primary Database) 同步(synchronous)传输redo到Far Sync实例,然后Far Sync实例再将redo异步(asynchronous)传输到终端备库(Standby Database).这样既可以保证零数据丢失又可

playframework-我要在playFramework配置 oracle 数据库 多个数据源 应该怎么配置以及引用呢

问题描述 我要在playFramework配置 oracle 数据库 多个数据源 应该怎么配置以及引用呢 我要在playFramework配置 oracle 数据库 多个数据源 应该怎么配置以及引用呢? 我已经在conf里面写了另一个数据源 名字是test,然后我想查找的时候用sql来查找,类似这种方法 rawSql= RawSqlBuilder.parse(sql) .columnMapping("gno", "gno") .create(); Query eQ

win8 r2 6位 安装 oracle rac集群提示网格基础结构配置失败

问题描述 win8 r2 6位 安装 oracle rac集群提示网格基础结构配置失败 目前已做规划:防火墙已关闭,计算机名小写,磁盘名英文,节点2的c盘共享,hosts文件配置信息: ,运行runcluvfy 检测全部通过.(抱歉,我没有C币,只能再次提前感谢了) 解决方案 http://my.oschina.net/u/557914/blog/356291http://wenku.baidu.com/link?url=LnLv0WfXXPNb0j537lqqe6nKRU3qB9HwEROt9

oracle客户端-oracle 选择net manager出来打开网络配置界面怎么解决呀

问题描述 oracle 选择net manager出来打开网络配置界面怎么解决呀 在oracle10g客户端配置了服务器,之前一直正常使用,今天突然连不上服务器了,打开net manager就叫我选择路径,在路径下我之前配置的还在,但是就是连不上,这是怎么回事呢,求高手指点. 解决方案 Oracle Net Manager 基本配置Oracle Net Manager 基本配置

从Oracle到MySQL,余额宝云实践分享

余额宝.百度百发.腾讯财付通谋划的互联网理财工具,吹响了互联网对金融行业的进军节奏.而后,网易.和讯.京东商城.苏宁云商等二线实力企业纷纷涉水.另一边,一众金融精英也在频频转换思路,不仅银行网络中心从副行长牵头的服务部门一跃成为行长主抓的业务部门,而且高调发布互联网金融理财产品与携手互联网企业并行,力图实现金融互联网的新价值.一时之间,互联网金融热潮涌动,无数专家多视点多维度进行了深入剖析,数十篇业内深度文章从产品.渠道.市场与趋势等全面解析互联网金融本质. 天弘基金创新支持部总经理樊振华(左)

rhcs做HA时用脚本释放资源

场景: CentOS6.3的二次封装版本,安装hortonworks的hadoop发行版,并按照其官方文档实现高可用,但无fence设备支持,因此导致断网和断电测试时,备用HA节点无法得到资源释放的通知. 因此,笔者简单写了一个脚本,让HA的备节点在主节点断网和断电时能够通过简单测试得知并获取资源,以实现真正意义的HA. 思考: 如何判断网络的连通性? 如何判断VIP的可用性? 如何判断自身的故障? 如何尽可能防止脑裂? 实现: 1.当自身节点IP均不正常时,使本节点重启 2.当检测自身网络正常

ORACLE 9i连接SYBASE的透明网关的配置

ORACLE实现异种数据库连接服务的技术叫做透明网关(Transparent Gateway). 目前ORACLE利用透明网关可以实现和SQL SERVER.SYBASE.DB2等多种主流数据库的互联. 现在通过oracle访问sybase数据库,把配置oracle9i TRANSPARENT GATEWAY FOR SYBASE的步骤写成文档,供需要的网友参考! 配置TRANSPARENT GATEWAY FOR SYBASE步骤 1.oracle所在服务器上安装sybase client(或

oracle 10G手工建库及OEM配置

今天闲来无事,天气太热,坐在办公室就像练蒸功夫一样,于是乎,就实施了一次手工建库,并启用OEM来管理数据库 以下操作都是用 oracle 用户组 1.创建文本初始化参数文件init$SID.ora及相应的dump目录 vi  $ORACLE_HOME/dbs/initLHZ.ora compatible='10.2.0.4.0' db_name='LHZ' sga_max_size=500M sga_target=200M undo_management='AUTO' undo_tablespa