ceph之Placement Group

预定义PG_NUM

  新建一个存储池命令:ceph osd pool set {pool-name}  pg_num

  选择一个pg_num的值是强制性的,这是因为该值不能被自动计算出来,以下是一些常用值:

    a、小于5个OSDs设置pg_num为128;

    b、5至10个OSDs设置pg_num 为512;

    c、10至50个OSDs设置pg_num为4096;

如果你有一个大于50个OSDs的存储集群,你自己必须懂得如何权衡以及计算出pg_num的值;

随着OSDs的数目的增加,选择一个合适的pg_num值具有很重要的意义,因为该值将对集群的行为有非常重要的影响,于此同时,该值在集群出错的情况下对数据的持久性也密切相关;(存在数据丢失的情况)

归置组是如何使用的

  存储池内的归置组(PG)把对象汇聚在一起,因为跟踪每一个对象的位置及其元数据需要大量的计算————即一个拥有数百万对象的系统,不可能在对象这一级踪位置;

 

时间: 2024-10-20 18:10:56

ceph之Placement Group的相关文章

ceph osd & placement group's stats introduce

本文主要介绍一下osd和PG的状态监控. OSD有4种状态 :  Up 的OSD可能在集群中(In)或不在集群中(Out), Down的OSD则肯定是不在集群中(Out)的. [root@osd4 ~]# ceph osd stat osdmap e41: 4 osds: 4 up, 4 in 例如以上命令看到的集群的osd状态, 总共有4个OSD, 4个在集群中. 如果你发现有up和in数字不一致, 说明有Down的或Out的osd, 可以通过如下命令查看详情. [root@osd4 ~]#

ceph GLOSSARY

ceph文档里术语较多, 为了方便理解, 最好先了解一下ceph的术语. 以下摘自ceph doc, 少了PG. PG placement group      PG, 存储 object 的逻辑组. PG存储在OSD中. OSD包含journal和data. 写完journal后返回ack确认数据安全性.      一般journal使用SSD来存储, 需要高的响应速度(类型postgresql xlog)      Ceph stores a client's data as objects

Ceph FINDING AN OBJECT LOCATION

CEPH作为对象存储时, 例如用于Openstack的对象存储. 如何查找对象在ceph的位置? 首选, 我们看看如何将数据作为对象存储到ceph :  1. 需要选择一个池 2. 需要指定对象名 例如我把test.img放到ceph的pool1这个池. [root@localhost rbd0]# ceph osd lspools 0 rbd,1 pool1, [root@localhost rbd0]# rados lspools rbd pool1 [root@localhost rbd0

Ceph分布式存储实战.

云计算与虚拟化技术丛书 Ceph分布式存储实战 Ceph中国社区 著 图书在版编目(CIP)数据 Ceph分布式存储实战/Ceph中国社区著. -北京:机械工业出版社,2016.11 (云计算与虚拟化技术丛书) ISBN 978-7-111-55358-8 I. C- II. C- III. 分布式文件系统 IV. TP316 中国版本图书馆CIP数据核字(2016)第274895号 Ceph分布式存储实战 出版发行:机械工业出版社(北京市西城区百万庄大街22号 邮政编码:100037) 责任编

multicast for distribyted storage object data delivering like ceph replication

在看ceph文档时看到如下一段 PEERING When Ceph is Peering a placement group, Ceph is bringing the OSDs that store the replicas of the placement group into agreement about the state of the objects and metadata in the placement group. When Ceph completes peering, t

ceph - add osd

   本文主要讲一下给一个已经存在的ceph存储集群添加osd 节点.     OSD节点存储用户的实际数据, 分散为对象存储在placement group中, placement group 可以理解为osd中的一些对象组.     一般来说我们会对数据存储2份或以上, 那么问题来了.     当OSD节点存储快满的时候, 如果一个OSD节点挂了, 会怎么样呢?     因为数据要存储多份, 所以OSD挂了之后, 挂掉的OSD节点上的对象相当于少了一份, Ceph会从健康的OSD节点找到对应

ceph introduce

ceph 存储集群主要包含osd, mon, mds组件. osd组件负责存储数据, 数据复制, 恢复, 均衡, 提供监控数据等. mon组件负责维护集群状态, 包括monitor map, osd map, pg(placement group) map, crush map等. 所有状态的变更都被记录. mds是可选组件, 只有在使用ceph 文件系统是才需要用到, 负责userspace接口. 用户数据被切分成objects, 经crush算法决定存储在哪些placement group,

ceph recommendation - hardware

CEPH的主要组件mon, osd, mds的硬件建议配置. 一. CPU建议 mds节点, 需要负责数据计算, 负载均衡, 比较依赖CPU, 建议4核或以上CPU. OSD节点, 运行RADOS服务, 通过CRUSH算法计算数据存储的placement group, 复制, 恢复, 维护cluster map 的osd map, 也比较依赖CPU, 建议2核或以上CPU. MON节点, 维护ceph cluster map, 不依赖CPU, 1核心就够了. 二. RAM建议 mds, mon节

ceph install

Ceph : performance, reliability and scalability storage solution Contents 1 Introduction 1.1 Testing case 2 Installation 2.1 First node 2.2 Other nodes 3 Deploy 3.1 Cluster 3.2 Monitor 3.2.1 Add the first monitor 3.2.2 Add a monitor 3.2.3 Remove a mo