Ceph分布式存储学习指南2.3 纵向扩展Ceph集群—添加monitor和OSD

2.3 纵向扩展Ceph集群—添加monitor和OSD


现在,我们有了一个单节点的Ceph集群。我们应该扩展它,让它成为一个分布式的、可靠的存储集群。要纵向扩展这个Ceph集群,我们应该添加更多的monitor节点和OSD。根据前面的计划,我们将把ceph-node2和ceph-node3机器同时作为monitor和OSD节点加入到集群中。

2.3.1 添加Ceph monitor

Ceph存储集群需要最少一个monitor处于运行状态。要提供高可用性,则需要大于1的奇数个monitor,例如3或者5个,以形成仲裁(quorum)。它使用Paxos算法维护多数仲裁。因为我们已经有了一个monitor运行在ceph-node1上,所以我们还需要在Ceph集群中创建两个monitor。

1)我们可能需要调整防火墙规则,使得Ceph monitor节点之间能够通信,以便它们能够形成仲裁。因为我们只是实验性部署,所以可以关闭所有三个节点上的防火墙。我们将在ceph-node1上运行以下命令(除非有特别指明):

 

2)在ceph-node2和ceph-node3上部署monitor:

 

3)部署操作应该会成功完成;可以在Ceph状态中检查新增的monitor:

 

 

4)你可能会在新的monitor节点上遇到与时钟相关的警告消息。要消除这些告警,需要在新的monitor节点上设置NTP(Network Time Protocol,网络时间协议)。

 

 

2.3.2 添加Ceph OSD

至此,我们已经有了一个包含3个monitor节点的Ceph集群。现在我们将继续扩展集群,添加更多的OSD节点。要完成这个任务,我们在ceph-node1机器上执行下列命令(除非特别指明)。

我们将使用与本章总前面相同的方法添加OSD。

 

检查集群中新增OSD的状态。在这个阶段,集群状态应该已经变成健康,其中包含9个处于in和up状态的OSD。

 

总结

Ceph的软件定义性质为其使用者提供了极大的灵活性。不像其他专有存储系统都依赖于硬件,Ceph几乎可以在如今任何计算机系统上轻松地进行部署和测试。此外,如果没有物理机器,你可以使用虚拟机安装Ceph,正如这一章所讲述的,但牢记这应该只用于测试目的。

在这一章,我们学习了如何使用 VirtualBox软件创建一组虚拟机,随后在其上使用ceph-deploy工具部署一个三节点的Ceph群集。我们也增加了几个OSD和monitor节点到集群中,以展示其动态的可伸缩性。我们建议你使用本章提到的指令部署自己的Ceph集群。下一章将探讨Ceph的架构及其核心部件,并详细说明它们之间如何相互作用,彼此形成群集。

 

 

时间: 2024-09-17 03:59:21

Ceph分布式存储学习指南2.3 纵向扩展Ceph集群—添加monitor和OSD的相关文章

Ceph分布式存储学习指南3.4 为Ceph集群部署MDS

3.4 为Ceph集群部署MDS 要为Ceph文件系统配置MDS服务,首先应该有一个正常运行的Ceph集群.在前面的章节中,我们已经部署好了Ceph集群,我们使用这个集群部署MDS.MDS的配置是相当简单的. 1)使用ceph-deploy在ceph-node1节点上配置NDS:   2)检查Ceph集群的状态,并寻找mdsmap部分.你会发现你刚刚配置的MDS节点

《 Ceph分布式存储学习指南》导读

本节书摘来自华章出版社< Ceph分布式存储学习指南>一书中,作者Richard Banfield 著 易艺 译   目录 第1章 Ceph存储介绍 1.1 概要 1.2 Ceph的历史和发展 1.3 Ceph和存储的未来 1.4 兼容性组合 1.5 Ceph块存储 1.6 Ceph文件系统 1.7 Ceph对象存储 1.8 Ceph与其他存储解决方案 1.9 GPFS 1.10 iRODS 1.11 HDFS 1.12 Lustre 1.13 Gluster 1.14 Ceph 总结 第2章

Ceph分布式存储学习指南2.1 使用VirtualBox创建沙箱环境

   第2章 Ceph实战部署 本章将涵盖以下主题: 使用VirtualBox创建沙箱环境 从零开始部署你的第一个Ceph集群 扩展你的Ceph集群-增加monitor和OSD 2.1 使用VirtualBox创建沙箱环境 我们可以使用Oracle VirtualBox虚拟机创建沙箱环境来进行Ceph部署实验.这个虚拟环境可以帮助我们发现和执行Ceph存储集群实验,就好像我们在真实环境中一样.由于Ceph是开源的软件定义存储软件,它可以部署在生产环境的商用硬件之上,因此出于测试目的,我们可以在虚

Ceph分布式存储学习指南3.2 Ceph RADOS

3.2 Ceph RADOS RADOS是Ceph存储系统的核心,也称为Ceph存储集群.Ceph的所有优秀特性都是由RADOS提供的,包括分布式对象存储.高可用性.高可靠性.没有单点故障.自我修复以及自我管理等.因此,RADOS层在Ceph存储架构中扮演着举足轻重的角色.Ceph的数据访问方法(如RBD.CephFS.RADOSGW和librados)的所有操作都是在RADOS层之上构建的. 当Ceph集群接收到来自客户端的写请求时,CRUSH算法首先计算出存储位置,以此决定应该将数据写入什么

Ceph分布式存储学习指南2.2 从零开始部署你的第一个Ceph集群

2.2 从零开始部署你的第一个Ceph集群 要部署第一个Ceph集群,我们将在三台虚拟机中使用ceph-deploy工具来安装和配置Ceph.ceph-deploy工具是Ceph软件定义存储的一部分,它可以使得你能够更容易地部署和管理Ceph存储集群. 由于我们已经创建了三台运行CentOS 6.4的虚拟机,并且它们都能访问因特网,也能通过私网相互通信.我们将如下图所示把这些虚拟机配置成Ceph存储集群.   1)将ceph-node1配置成可以免SSH密码登录其他节点.在ceph-node1上

Ceph分布式存储学习指南1.3 Ceph和存储的未来

1.3 Ceph和存储的未来 企业存储需求最近几年暴发性增长.研究表明,大企业的数据年增长率为40%-60%,而且许多公司的数据占用空间每年翻一番.IDC分析师估计2000年全世界数据量大约是54.4EB.2007年这个数字达到295EB,而到2014年年底,预计会达到8591EB. 所有存储系统的要求都是统一.分布式.可靠.高性能,最重要的是,能够大规模扩展至艾字节,甚至更高级别.Ceph存储系统是一个真正的解决方案,它可以应对这个星球上爆炸式增长的数据.Ceph能够闪电式兴起的原因在于它活跃

Ceph分布式存储学习指南3.5 Ceph文件系统

3.5 Ceph文件系统 CephFS在RADOS层之上提供了一个兼容POSIX的文件系统.它使用MDS作为守护进程,负责管理其元数据并将它和其他数据分开,这有助于降低复杂性并提高可靠性.CephFS继承了RADOS的特性并为数据提供了动态再平衡.   libcephfs库在支持多客户端实现方面扮演着重要角色.它拥有本地Linux内核驱动程序支持,因此客户可以使用mount命令来实现本机文件系统挂载.它和SAMBA紧密集成,支持CIFS和SMB.CephFS使用cephfuse模块(FUSE)扩

Ceph分布式存储学习指南1.1 概要

第1章 Ceph存储介绍 本章将讲述以下主题: Ceph概要 Ceph的历史和发展 Ceph和存储的未来 兼容性组合 Ceph与其他存储方案 1.1 概要 Ceph是一个开源项目,它提供软件定义的.统一的存储解决方案.Ceph是一个可大规模扩展.高性能并且无单点故障的分布式存储系统.从一开始它就运行在通用商用硬件上,具有高度可伸缩性,容量可扩展至EB级别,甚至更大. Ceph因为其开放.可扩展.分布式的本质在存储领域引起了强烈反响.如今,公有云.私有云以及混合云模型是提供大规模基础设施的主流方案

Ceph分布式存储学习指南1.14 Ceph

1.14 Ceph 如果我们比较Ceph和现存的其他存储解决方案,由于Ceph特性丰富,它明显与众不同.它克服了现有存储系统的局限性,并已经被证明是昂贵的老存储系统的理想替代品.它是运行于任何商用硬件上的开源软件定义存储解决方案,这使得它也是一个经济的存储解决方案.Ceph提供了各种接口让客户端连接Ceph集群,这为客户端增加了灵活性.对于数据保护,Ceph并不依赖于RAID技术,因为它存在本章前面提到的各种限制.而是采用了已经被证明比RAID更好的副本和纠删码方案. Ceph的每一个组件都是可