ceph remove osd

  前面讲了一下如何添加OSD daemon.

http://blog.163.com/digoal@126/blog/static/163877040201411104393905/

    本文将讲一下如何移除OSD daemon, 在移除osd之前, 请务必确保osd移除后, 集群中能放下所有的数据, 例如集群总共有100TB的空间, 已用90TB, 每个OSD daemon假设有1TB空间, 那么移除一个OSD后剩余99TB, 还能存下90T的数据. 所以这样是没有问题的,

    移除OSD daemon的步骤分4步 : 

    1. 冻结需要移除的OSD

ceph osd out {osd-num}

    2. 观察自动迁移OSD中的内容到集群中的其他OSD

ceph -w
你会观察到OSD的状态从"active+clean" to "active, some degraded objects", 最终回到 "active+clean"
回到active+clean后, 说明OSD的数据已经重分布完成. 可以进行第三步了

    3. 停需要移除的osd daemon服务/进程

sudo /etc/init.d/ceph stop osd.{osd-num}
或
ps -ewf|grep ceph; kill it

    4. 从集群中移除osd daemon信息: crush map, key, data, journal, 修改剩余OSD节点的configure.

任意ceph osd/mon节点执行 :
ceph osd crush remove {name}
ceph auth del osd.{osd-num}
移除节点
ceph osd rm {osd-num}
  #for example
ceph osd rm 1

修改剩余节点配置, 例如vi {cluster_name}.conf :
vim ceph.conf
移除
[osd.1]
        host = {hostname}

[参考]
1. http://blog.163.com/digoal@126/blog/static/163877040201411104393905/

2. http://ceph.com/docs/master/rados/operations/add-or-rm-osds/

时间: 2024-10-31 21:43:04

ceph remove osd的相关文章

ceph - add osd

   本文主要讲一下给一个已经存在的ceph存储集群添加osd 节点.     OSD节点存储用户的实际数据, 分散为对象存储在placement group中, placement group 可以理解为osd中的一些对象组.     一般来说我们会对数据存储2份或以上, 那么问题来了.     当OSD节点存储快满的时候, 如果一个OSD节点挂了, 会怎么样呢?     因为数据要存储多份, 所以OSD挂了之后, 挂掉的OSD节点上的对象相当于少了一份, Ceph会从健康的OSD节点找到对应

ceph增加osd流程

假如需要新增一个主机名:osd4 ip:192.168.0.110的OSD1.在osd4创建挂载目录及放置配置文件的目录 ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机) mkdir /ceph/osd.4 mkdir /etc/ceph 2.在osd4上格式化ext4的sda3分区,挂载分区. mkfs.ext4 /dev/sda3 mount -o user_xattr /dev/sda3 /ceph/osd.43.将mon主机的id_dsa.pub拷至osd4

ceph - remove A monitor (MANUAL)

在删除mon节点前, 请务必确保删除后的mon节点可以达到健康状态, 例如从5个节点删除到4个节点, 并且4个节点里面有3个或以上mon是健康的, 这样的状态ceph storage cluster才是健康的. 删除mon节点分两种情况, 1种情况是删除一个健康的mon节点, 另一种情况是删除一个不健康的mon节点. 首选来看看如何删除一个健康的mon节点 :  连接到该mon节点, 关闭服务, 或(停止ceph_mon服务) [root@mon5 ~]# ps -ewf|grep mon ro

查询Ceph的OSD占用内存的脚本

# -*- coding: UTF-8 -*-import osimport sysimport jsonimport psutilimport commandsfrom prettytable import PrettyTabledef main():    if len(sys.argv) == 1:        printosdmemtable("table")    elif sys.argv[1] == 'json':        printosdmemtable(&qu

ceph performance tune , mount the osd mon data directory to diff block dev

在centos或rhel中, ceph服务可以通过ceph sysv脚本来管理, 例如用来管理mds, osd, mon节点. 如下 : # less /etc/init.d/ceph usage_exit() { echo "usage: $0 [options] {start|stop|restart|condrestart} [mon|osd|mds]..." printf "\t-c ceph.conf\n" printf "\t--cluster

openstack 与 ceph (osd 部署)

当 monitor 运行后, 你需要添加 OSD, 你的集群只有在获得足够的 OSD 数量用于复制对象时候才可能获得 active + clean 状态 例如 osd pool size = 2, 那么至少需要 2 个 OSD, 在启动 MONITOR 后,你的集群具有默认的 CURSH MAP, 当前 CURSH MAP 并没有 CEPH OSD 进程映射到 CEPH 节点 CEPH 提供 CEPH-DISK 工具, 可以准备一次磁盘, 分区或者目录用于 CEPH, ceph-disk 工具通

Ceph分布式存储实战.

云计算与虚拟化技术丛书 Ceph分布式存储实战 Ceph中国社区 著 图书在版编目(CIP)数据 Ceph分布式存储实战/Ceph中国社区著. -北京:机械工业出版社,2016.11 (云计算与虚拟化技术丛书) ISBN 978-7-111-55358-8 I. C- II. C- III. 分布式文件系统 IV. TP316 中国版本图书馆CIP数据核字(2016)第274895号 Ceph分布式存储实战 出版发行:机械工业出版社(北京市西城区百万庄大街22号 邮政编码:100037) 责任编

ceph install

Ceph : performance, reliability and scalability storage solution Contents 1 Introduction 1.1 Testing case 2 Installation 2.1 First node 2.2 Other nodes 3 Deploy 3.1 Cluster 3.2 Monitor 3.2.1 Add the first monitor 3.2.2 Add a monitor 3.2.3 Remove a mo

ceph基本操作整理

一.ceph基本操作: 启动osd.mon进程: start ceph-osd id=X start ceph-mon id=YYY 关闭osd.mon进程: stop  ceph-osd id=X stop  ceph-mon id=YYY 查看osd的状态: status ceph-osd  id=X 二.ceph更换硬盘流程: scale up:(同一节点上增加osd) scale out:(同一集群内增加节点) 第一步:ceph osd crush reweight osd.X 0.0