ceph recommendation - os

内核版本 : 

v3.16.3 or later (rbd deadlock regression in v3.16.[0-2])

v3.14.*

v3.10.*

注意, 如果要使用firefly 的 crush tunables功能, 建议使用v3.16.3内核.

firefly (CRUSH_TUNABLES3) tunables are supported starting with v3.15. See CRUSH Tunables for more details.

如果要使用 btrfs 文件系统 , 建议使用v3.16.3内核.

GLIBC : 

firefly以后的版本(例如giant+), 建议使用fdatasync flush方法提升性能. 

  • fdatasync(2): With Firefly v0.80 and beyond, use fdatasync(2) instead of fsync(2) to improve performance.
  • syncfs(2): For non-btrfs filesystems such as XFS and ext4 where more than one ceph-osd daemon is used on a single server, Ceph performs significantly better with the syncfs(2) system call (added in kernel 2.6.39 and glibc 2.14). 
  • New versions of Ceph (v0.55 and later) do not depend on glibc support. 

操作系统

以Firefly版本为例, 建议使用ubuntu 14.04或CentOS 7, RHEL 7.

FIREFLY (0.80)

Distro Release Code Name Kernel Notes Testing
Ubuntu 12.04 Precise Pangolin linux-3.2.0 1, 2 B, I, C
Ubuntu 14.04 Trusty Tahr linux-3.13.0   B, I, C
Debian 6.0 Squeeze linux-2.6.32 1, 2, 3 B
Debian 7.0 Wheezy linux-3.2.0 1, 2 B
CentOS 6 N/A linux-2.6.32 1, 2 B, I
RHEL 6   linux-2.6.32 1, 2 B, I, C
RHEL 7   linux-3.10.0   B, I, C
Fedora 19.0 Schr?dinger’s Cat linux-3.10.0   B
Fedora 20.0 Heisenbug linux-3.14.0   B

NOTES

  • 1: The default kernel has an older version of btrfs that we do not recommend for ceph-osd storage nodes. Upgrade to a recommended kernel or use XFS or ext4.
  • 2: The default kernel has an old Ceph client that we do not recommend for kernel client (kernel RBD or the Ceph file system). Upgrade to a recommended kernel.
  • 3: The default kernel or installed version of glibc does not support the syncfs(2) system call. Putting multiple ceph-osd daemons using XFS orext4 on the same host will not perform as well as they could.

测试数据

TESTING

  • B: We continuously build all branches on this platform and exercise basic unit tests. We build release packages for this platform.
  • I: We do basic installation and functionality tests of releases on this platform.
  • C: We run a comprehensive functional, regression, and stress test suite on this platform on a continuous basis. This includes development branches, pre-release, and released code.

[参考]

1. http://ceph.com/docs/master/start/os-recommendations/

时间: 2024-12-11 03:10:09

ceph recommendation - os的相关文章

ceph recommendation - hardware

CEPH的主要组件mon, osd, mds的硬件建议配置. 一. CPU建议 mds节点, 需要负责数据计算, 负载均衡, 比较依赖CPU, 建议4核或以上CPU. OSD节点, 运行RADOS服务, 通过CRUSH算法计算数据存储的placement group, 复制, 恢复, 维护cluster map 的osd map, 也比较依赖CPU, 建议2核或以上CPU. MON节点, 维护ceph cluster map, 不依赖CPU, 1核心就够了. 二. RAM建议 mds, mon节

Ceph recommendation - HARD DISK AND FILE SYSTEM

Ceph OSD数据是将数据存储在文件系统中的, 所以可以认为Ceph是基于文件系统的分布式文件系统. 那么问题来了, 用户将数据写入Ceph文件系统后, 还要经过OSD所在的文件系统, 再写入硬盘(中间可能还要经过os cache, array cache, disk cache). 所以为了确保数据安全写入持久化存储, Ceph对文件系统有一定的要求. 硬盘 :  1. 建议将OSD的存储和操作系统分开硬盘存储.  2. 如果你在使用较老的内核(<2.6.33), 务必关闭OSD所在硬盘的写

Ceph分布式存储实战.

云计算与虚拟化技术丛书 Ceph分布式存储实战 Ceph中国社区 著 图书在版编目(CIP)数据 Ceph分布式存储实战/Ceph中国社区著. -北京:机械工业出版社,2016.11 (云计算与虚拟化技术丛书) ISBN 978-7-111-55358-8 I. C- II. C- III. 分布式文件系统 IV. TP316 中国版本图书馆CIP数据核字(2016)第274895号 Ceph分布式存储实战 出版发行:机械工业出版社(北京市西城区百万庄大街22号 邮政编码:100037) 责任编

use ceph for openstack block device &amp; object storage (cinder, glance)

转 :  http://docwiki.cisco.com/wiki/OpenStack:Ceph-COI-Installation OpenStack:Ceph-COI-Installation Contents [hide] 1 Installing a ceph cluster and configuring rbd-backed cinder volumes. 1.1 First steps 2 Choosing Your Configuration 2.1 Ceph Standalon

ceph cluster sample configure file in src

ceph集群的配置文件模板如下 :  [root@localhost src]# cat sample.ceph.conf  ## # Sample ceph ceph.conf file. ## # This file defines cluster membership, the various locations # that Ceph stores data, and any other runtime options. # If a 'host' is defined for a da

ceph rbd.ko by elrepo (when I mapping it, Module rbd not found, CentOS 7)

我们知道ceph的支持块设备功能, 但是需要客户端加载RBD模块, 并且能够连到CEPH集群的所有节点. 但是测试过程中, 在使用rbd 映射块设备时, 出现一个错误, 如下 : [root@localhost ~]# rbd map img1 --pool pool1 -m 172.17.0.2 -k /etc/ceph/ceph.client.admin.keyring modinfo: ERROR: Module rbd not found. modprobe: FATAL: Module

ceph install

Ceph : performance, reliability and scalability storage solution Contents 1 Introduction 1.1 Testing case 2 Installation 2.1 First node 2.2 Other nodes 3 Deploy 3.1 Cluster 3.2 Monitor 3.2.1 Add the first monitor 3.2.2 Add a monitor 3.2.3 Remove a mo

Ceph分布式存储学习指南1.3 Ceph和存储的未来

1.3 Ceph和存储的未来 企业存储需求最近几年暴发性增长.研究表明,大企业的数据年增长率为40%-60%,而且许多公司的数据占用空间每年翻一番.IDC分析师估计2000年全世界数据量大约是54.4EB.2007年这个数字达到295EB,而到2014年年底,预计会达到8591EB. 所有存储系统的要求都是统一.分布式.可靠.高性能,最重要的是,能够大规模扩展至艾字节,甚至更高级别.Ceph存储系统是一个真正的解决方案,它可以应对这个星球上爆炸式增长的数据.Ceph能够闪电式兴起的原因在于它活跃

如何在 CentOS 7.0 上配置 Ceph 存储

如何在 CentOS 7.0 上配置 Ceph 存储 Ceph 是一个将数据存储在单一分布式计算机集群上的开源软件平台.当你计划构建一个云时,你首先需要决定如何实现你的存储.开源的 Ceph 是红帽原生技术之一,它基于称为 RADOS 的对象存储系统,用一组网关 API 表示块.文件.和对象模式中的数据.由于它自身开源的特性,这种便携存储平台能在公有云和私有云上安装和使用.Ceph 集群的拓扑结构是按照备份和信息分布设计的,这种内在设计能提供数据完整性.它的设计目标就是容错.通过正确配置能运行于