Ceph cluster configure introduce - 2

一般配置 :

初始化时的监控节点配置, 包含(非FQDN)hostname -s, IP.
[global]
mon_initial_members = ceph1
mon_host = 10.0.0.1

如果是手工部署, 可以写3个mon节点的信息, 如 :
mon initial members = mon1, mon2, mon3
mon host = 172.17.0.2, 172.17.0.3, 172.17.0.4

如果是使用chef, ceph-deploy来配置, 建议配置时只使用一个节点, 后面再添加, 如 :
mon_initial_members = ceph1
mon_host = 10.0.0.1

网络配置 : 

生产环境建议至少应该将public网络和cluster网络分开.

public网络中有ceph客户端的流量, 有ceph 监控的流量, 还有ceph mds的流量.

集群网络的话, 主要包含osd节点之间的数据复制流量, 心跳流量.


OSD节点的交互包括 : 

OSD节点之间的复制交互, 心跳交互

OSD节点和客户端, 监控节点的交互

网络配置举例 : 

http://ceph.com/docs/master/rados/configuration/network-config-ref

[mon.a]
        host = {hostname}
        mon addr = {ip-address}:6789
[osd.0]
        public addr = {ip-address}/{netmask} [, {ip-address}/{netmask}]  192.168.0.0/24
        cluster addr = {ip-address}/{netmask} [, {ip-address}/{netmask}]  10.0.0.0/24

监控配置 : 

http://ceph.com/docs/master/rados/configuration/mon-config-ref

监控节点主要配置地址, 数据目录, 例如 :

[mon]
        mon host = hostname1,hostname2,hostname3
        mon addr = 10.0.0.10:6789,10.0.0.11:6789,10.0.0.12:6789
        mon data = /var/lib/ceph/mon/$cluster-$id
[mon.a]
        host = hostname1
        mon addr = 10.0.0.10:6789

认证配置 : 

http://ceph.com/docs/master/rados/operations/authentication

http://ceph.com/docs/master/rados/configuration/auth-config-ref

升级CEPH版本前, 建议关闭认证, 升级完再打开, 配置例如 :

auth cluster required = cephx
auth service required = cephx
auth client required = cephx

key配置未列出.

OSD配置

http://ceph.com/docs/master/rados/configuration/osd-config-ref

http://blog.163.com/digoal@126/blog/static/163877040201411711835765/

OSD一般需要配置journal大小路径, 数据目录路径, 文件系统的XATTR是否使用OMAP存储(ext4必须使用omap), 等, 例如 :

[osd]
    osd journal = /var/lib/ceph/osd/$cluster-$id/journal
    osd journal size = 1024
    osd data = /var/lib/ceph/osd/$cluster-$id
    filestore xattr use omap = true

心跳配置

http://docs.ceph.com/docs/master/rados/configuration/mon-osd-interaction/

首先看看心跳流程 : 

OSD1检测到OSD2异常.

间隔 [osd] osd heartbeat interval = 秒.

OSD1 向monitor报告其他节点异常.

[mon] mon osd min down reports = 多少次mon将其标记为down状态


OSD 报告peer异常.

[osd] osd mon heartbeat interval = 多少秒

osd间隔默认30秒向mon请求最新的map, 并检测map中的其他osd的状态. 向mon报告.


OSD1 向montiro报告自身异常.

当mon osd report timeout时间之后未收到OSD主动发起的状态信息报告, MON将标记该OSD DOWN.

那么OSD多久给MON发一次报告呢? 除了状态改变引起的报告, 还可以设置间隔.

[osd]
osd mon report interval min = 5秒 默认
osd mon report interval max = 120秒 默认

日志,debug配置

http://docs.ceph.com/docs/master/rados/troubleshooting/log-and-debug/

例子

DEBUG参考配置 :

[global]
        debug ms = 1/5

[mon]
        debug mon = 20
        debug paxos = 1/5
        debug auth = 2

[osd]
        debug osd = 1/5
        debug filestore = 1/5
        debug journal = 1
        debug monc = 5/20

[mds]
        debug mds = 1
        debug mds balancer = 1
        debug mds log = 1
        debug mds migrator = 1

日志文件rotate参考配置

rotate 7
weekly
compress
sharedscripts
Modify it by adding a size setting.

rotate 7
weekly
size 500M
compress
sharedscripts

Then, start the crontab editor for your user space.

crontab -e
Finally, add an entry to check the etc/logrotate.d/ceph file.

30 * * * * /usr/sbin/logrotate /etc/logrotate.d/ceph >/dev/null 2>&1

日志参考配置 : 

log file = /var/log/ceph/$cluster-$name.log
mon cluster log file = /var/log/ceph/$cluster.log

[参考]

1. http://blog.163.com/digoal@126/blog/static/1638770402014118103927428/

2. http://ceph.com/docs/master/rados/configuration/ceph-conf/

时间: 2024-09-11 02:07:23

Ceph cluster configure introduce - 2的相关文章

Ceph cluster configure introduce - 1

ceph存储集群运行需要osd和mon模块, 如果要使用对象存储, 需要添加radosgw模块, 如果需要使用ceph 文件系统需要添加mds模块. 这些模块在启动时, 需要读取配置文件, ceph所有类型的daemon配置文件统一放在一个配置文件中, 配置文件的顺序如下 : The default Ceph configuration file locations in sequential order include: $CEPH_CONF (i.e., the path following

Ceph cluster configure introduce - 3

1. 运行daemon时使用新的参数值覆盖配置文件的值. ceph tell {daemon-type}.{id or *} injectargs --{name} {value} [--{name} {value}] 例子 :  ceph tell osd.0 injectargs --debug-osd 20 --debug-ms 1 带空格的参数名使用_或-代替空格. daemon-type 包括 mon, osd, mds .  * 表示所有类型的daemon. Ceph allows

ceph cluster sample configure file in src

ceph集群的配置文件模板如下 :  [root@localhost src]# cat sample.ceph.conf  ## # Sample ceph ceph.conf file. ## # This file defines cluster membership, the various locations # that Ceph stores data, and any other runtime options. # If a 'host' is defined for a da

ceph cluster monitor

    作为分布式存储, ceph由很多组件组成, 例如有osd, mon, mds等, 这些组件各自承担了各自的功能, 同时每种组件都可以由多个节点组成, 提供高可用. 监控ceph集群的状态, 包括各个组件的状态监控.     通过ceph命令, 在mon, osd, mds任意节点都可以获取到集群的信息.     例如 :  如果配置文件和KEY不在默认路径, 或集群名不是ceph的话, 请注意提供配置文件和key文件路径. ceph -c /path/to/conf -k /path/t

use ceph for openstack block device & object storage (cinder, glance)

转 :  http://docwiki.cisco.com/wiki/OpenStack:Ceph-COI-Installation OpenStack:Ceph-COI-Installation Contents [hide] 1 Installing a ceph cluster and configuring rbd-backed cinder volumes. 1.1 First steps 2 Choosing Your Configuration 2.1 Ceph Standalon

ceph default values for mon, osd, radosgw, mds

ceph集群包括最基本的mon(monitor), osd(object storage devices)节点. 如果要使用ceph filesystem, 还需要mds(metadata server)节点. 如果要使用对象存储功能, 还需要radosgw(rados gateway)节点. 部署这些节点时, 需要大量的配置, 这些配置大部分是有默认值的, 如果使用源码安装ceph的话, 这些默认值在 src/common/config_opts.h中定义, 想修改的话就在这个文件里修改. h

about ceph monitor's consistency

    ceph 的mon节点维护了整个ceph 存储集群的map状态.     因为mon节点是多个的, 所以要求所有mon节点的map状态一致, mon使用paxos算法(分布式一致性算法)来修改map的状态, 确保所有mon节点的map数据一致.     因此mon节点并不是通过集群配置文件如ceph.conf来保持map一致的, 而是map文件.     每次map文件变更前, 需要多数monitor节点同意, 确保多数或所有(quorum)节点的map文件一致, 并且map文件是增量更

ceph install

Ceph : performance, reliability and scalability storage solution Contents 1 Introduction 1.1 Testing case 2 Installation 2.1 First node 2.2 Other nodes 3 Deploy 3.1 Cluster 3.2 Monitor 3.2.1 Add the first monitor 3.2.2 Add a monitor 3.2.3 Remove a mo

ceph GLOSSARY

ceph文档里术语较多, 为了方便理解, 最好先了解一下ceph的术语. 以下摘自ceph doc, 少了PG. PG placement group      PG, 存储 object 的逻辑组. PG存储在OSD中. OSD包含journal和data. 写完journal后返回ack确认数据安全性.      一般journal使用SSD来存储, 需要高的响应速度(类型postgresql xlog)      Ceph stores a client's data as objects