MYSQL使用心得(八) 在线主从复制集群的配置与恢复及主主配置

在线执行主从配置

步骤

1.锁表

FLUSH TABLES WITH READ LOCK;

2.拷贝数据文件,或者导出

3.记录下master的日志位置

master_log_file

master_log_pos

4.解除主库锁定

UNLOCK TABLES;

5.开始主从配置

6.配置完主从并启动之后,我们把从库挂载到集群中

其他

在从库数据文件夹下,有个master.info文件,是从机器上特有的。

重置从库:用于让从属服务器忘记其在主服务器的二进制日志中的复制位置, 它会删除master.info和relay- log.info文件,以及所有的中继日志,并启动一个新的中继日志,当你不需要主从的时候可以在从上执行这个操作。

reset slave;

重新配置主库(删除binlog)

reset master;

查看复制日志

show binlog events in 'mysql-bin.000004' \G;

主主配置

需要注意配置

[mysqld]

# 步进值

auto_increment_increment=2

# 起始偏移量

auto_increment_offset=1

# 使从服务器把复制的事件记录到自己的二进制日志中

log_slave_updates=1

自动删除binlog

设置自动清理MySQL binlog日志,配置my.cnf:

expire_logs_days = 10

在线进行主从恢复

1)首先要锁主库的表

FLUSH TABLES WITH READ LOCK;

2)然后复制主库的物理文件到从库上,保持数据文件一致。(建议使用mysqldump,可以保证数据的一致性)

3)记录下主库的

master_log_file

master_log_pos

4)解锁主库的表,此时虽然从库没有完成配置,但是写入数据也没有关系,我们已经记录下了bin-log的偏移位置。

UNLOCK TABLES;

5)从库新配置主从

附加阅读

在从库数据文件夹下,有个master.info文件,是从机器上特有的。

重置从库:用于让从属服务器忘记其在主服务器的二进制日志中的复制位置, 它会删除master.info和relay- log.info文件,以及所有的中继日志,并启动一个新的中继日志,当你不需要主从的时候可以在从上执行这个操作。

RESET SLAVE;

在线进行主主复制恢复

同上,锁表,拷贝相同的物理文件(建议使用mysqldump,可以保证数据的一致性),同时 记录下2

master_log_file

master_log_pos

然后解锁

配置主从同步

查看本栏目更多精彩内容:http://www.bianceng.cnhttp://www.bianceng.cn/database/MySQL/

时间: 2024-08-29 03:15:07

MYSQL使用心得(八) 在线主从复制集群的配置与恢复及主主配置的相关文章

CentOS服务器Mysql主从复制集群的搭建

        在配置Mysql数据库主从复制集群的时候要保证:              1.主从服务器操作系统版本和位数一致.              2.Mysql版本一致.          为了保证稳定性,最好服务器操作系统和Mysql数据库环境一致.         CentOS服务器上Mysql的安装方法可以参见博客:         http://blog.csdn.net/jhq0113/article/details/43812895                   服

MySQL slave_net_timeout参数解决的一个集群问题案例_Mysql

[背景]    对一套数据库集群进行5.5升级到5.6之后,alter.log 报warning异常.    复制代码 代码如下: 2015-02-03 15:44:51 19633 [Warning] Storing MySQL user name or password information in the master info repository is not secure and is therefore not recommended. Please consider using

MySQL主从同步读写分离的集群配置

大型网站为了解决大量的高并发访问问题,除了在网站实现分布式负载均衡,远远不够.到了数据业务层.数据访问层,如果还是传统的数据结构,或者只是单单靠一台服务器支持,如此多的数据库连接操作,服务器性能再好数据库必然会崩溃.数据丢失的话,后果更是不堪设想.这时候,我们会考虑如何减少数据库的连接,一方面采用优秀的代码框架,进行代码的优化,采用优秀的数据缓存技术如:memcached等.如果资金充足的话,必然会想到假设服务器集群,来分担主数据库的压力.或者在硬件设备上,投入大量资金,购买高性能的服务器.出名

更改oracle集群中的的公用/互联IP子网配置

可使用oifcfg 添加或删除OCR 中的网络接口信息: $ /bin/oifcfg getif eth0 139.2.156.0 global public eth1 192.168.0.0 global cluster_interconnect $ oifcfg delif -global eth0 $ oifcfg setif –global eth0/139.2.166.0:public $ oifcfg delif –global eth1 $ oifcfg setif –global

集群-Percona-XtraDB-Cluster数据节点恢复

问题描述 Percona-XtraDB-Cluster数据节点恢复 关于Percona-XtraDB-Cluster节点恢复,有很多疑惑. 如果某个数据节点宕机后想将这个数据节点恢复进集群环境,然而集群环境一直有数据在写入已经造成数据不一致,此时这个节点该怎么恢复并重新挂载进入集群.能否不停机实现. Percona-XtraDB-Cluster能否不停机实现添加新的数据节点 没有C币,只能跪谢各位答主了 解决方案 Percona XtraDB Cluster 5.5.30

nginx+tomcat集群负载均衡中的多虚拟主机配置

虽然夜深了,但是还是解决了这个困扰我一个晚上的问题,记录下来备查. 接着我前不久写的这一篇来的:Linux下nginx和tomcat的整合http://hi.baidu.com/gnaiqeh/blog/item/2f43dac9e98d781a7f3e6fc7.html 举个例子,现在是这样的情况:我现在有a.b.c三个不同的应用,每个Tomcat集群机(一共3个)上都建立了这三个应用的虚拟主机,我要把这三个应用用一个nginx来负载均衡. 中间测试了很多次,失败的过程就不多说了,直接说最终解

国内最全最详细的Hadoop2.2.0集群的HA高可靠的最简单配置

简介 Hadoop中的NameNode好比是人的心脏,非常重要,绝对不可以停止工作.在hadoop1时代,只有一个NameNode.如果该NameNode数据丢失或者不能工作,那么整个集群就不能恢复了.这是hadoop1中的单点问题,也是hadoop1不可靠的表现,如图1所示.hadoop2就解决了这个问题. hadoop2.2.0中HDFS的高可靠指的是可以同时启动2个NameNode.其中一个处于http://www.aliyun.com/zixun/aggregation/7317.htm

MongoDB 集群,主从复制集群模式,replSet集群模式

一.MongoDB -Master-Slave mode: 1.master 节点配置(192.168.99.16) master节点创建/data/master 数据目录,给mongo的data文件夹添加写权限 sudo mkdir -pv /data/masterdb && sudo chmod 777 /data/masterd 运行master mongd sudo nohup mongod --master --dbpath /data/masterdb & 2.slav

Linux高可用(HA)之MySQL多主一从+Keepalived跨机房集群部署

添加host解析.时间同步和ssh互信(注:这里的做ssh互信的时候使用到一个脚本借助expect实现了面交互操作了) [root@DS-CentOS51 ~]# echo "172.16.0.51 mysql-master01 > 172.16.0.60 mysql-master02 > 172.16.0.63 mysql-slave01 > 172.16.0.69 mysql-slave02" >> /etc/hosts [root@DS-CentOS