Ceph分布式存储学习指南1.9 GPFS

1.9 GPFS


GPFS(General Parallel File System,通用并行文件系统)是一个分布式文件系统,由IBM开发及拥有。这是一个专有、闭源的存储系统,这使得它缺少吸引力并且难以适应。存储硬件加上授权以及支持成本使得它非常昂贵。另外,它提供的存储访问接口非常有限;它既不能提供块存储,也不能提供RESTful接口来访问存储系统,因此这是一个限制非常严格的系统。甚至最大的数据副本数都限制只有3个,这在多个组件同时故障的情形下降低了系统的可靠性。

时间: 2024-07-31 11:27:42

Ceph分布式存储学习指南1.9 GPFS的相关文章

《 Ceph分布式存储学习指南》导读

本节书摘来自华章出版社< Ceph分布式存储学习指南>一书中,作者Richard Banfield 著 易艺 译   目录 第1章 Ceph存储介绍 1.1 概要 1.2 Ceph的历史和发展 1.3 Ceph和存储的未来 1.4 兼容性组合 1.5 Ceph块存储 1.6 Ceph文件系统 1.7 Ceph对象存储 1.8 Ceph与其他存储解决方案 1.9 GPFS 1.10 iRODS 1.11 HDFS 1.12 Lustre 1.13 Gluster 1.14 Ceph 总结 第2章

Ceph分布式存储学习指南1.3 Ceph和存储的未来

1.3 Ceph和存储的未来 企业存储需求最近几年暴发性增长.研究表明,大企业的数据年增长率为40%-60%,而且许多公司的数据占用空间每年翻一番.IDC分析师估计2000年全世界数据量大约是54.4EB.2007年这个数字达到295EB,而到2014年年底,预计会达到8591EB. 所有存储系统的要求都是统一.分布式.可靠.高性能,最重要的是,能够大规模扩展至艾字节,甚至更高级别.Ceph存储系统是一个真正的解决方案,它可以应对这个星球上爆炸式增长的数据.Ceph能够闪电式兴起的原因在于它活跃

Ceph分布式存储学习指南2.3 纵向扩展Ceph集群—添加monitor和OSD

2.3 纵向扩展Ceph集群-添加monitor和OSD 现在,我们有了一个单节点的Ceph集群.我们应该扩展它,让它成为一个分布式的.可靠的存储集群.要纵向扩展这个Ceph集群,我们应该添加更多的monitor节点和OSD.根据前面的计划,我们将把ceph-node2和ceph-node3机器同时作为monitor和OSD节点加入到集群中. 2.3.1 添加Ceph monitor Ceph存储集群需要最少一个monitor处于运行状态.要提供高可用性,则需要大于1的奇数个monitor,例如

Ceph分布式存储学习指南3.1 Ceph存储架构

第3章 Ceph架构和组件 本章将涵盖以下几大主题: Ceph存储架构 Ceph RADOS Ceph对象存储设备(OSD) Ceph monitor(MON) librados Ceph块存储 Ceph对象网关 Ceph MDS和CephFS 3.1 Ceph存储架构 Ceph存储集群由几个不同的软件守护进程组成,每个守护进程负责Ceph的一个独特功能并将值添加到相应的组件中.每个守护进程是彼此独立的.这是保持Ceph存储集群比黑匣子似的商业存储系统更加便宜的诸多特性中的一个. 下图简要阐述了

Ceph分布式存储学习指南3.5 Ceph文件系统

3.5 Ceph文件系统 CephFS在RADOS层之上提供了一个兼容POSIX的文件系统.它使用MDS作为守护进程,负责管理其元数据并将它和其他数据分开,这有助于降低复杂性并提高可靠性.CephFS继承了RADOS的特性并为数据提供了动态再平衡.   libcephfs库在支持多客户端实现方面扮演着重要角色.它拥有本地Linux内核驱动程序支持,因此客户可以使用mount命令来实现本机文件系统挂载.它和SAMBA紧密集成,支持CIFS和SMB.CephFS使用cephfuse模块(FUSE)扩

Ceph分布式存储学习指南1.1 概要

第1章 Ceph存储介绍 本章将讲述以下主题: Ceph概要 Ceph的历史和发展 Ceph和存储的未来 兼容性组合 Ceph与其他存储方案 1.1 概要 Ceph是一个开源项目,它提供软件定义的.统一的存储解决方案.Ceph是一个可大规模扩展.高性能并且无单点故障的分布式存储系统.从一开始它就运行在通用商用硬件上,具有高度可伸缩性,容量可扩展至EB级别,甚至更大. Ceph因为其开放.可扩展.分布式的本质在存储领域引起了强烈反响.如今,公有云.私有云以及混合云模型是提供大规模基础设施的主流方案

Ceph分布式存储学习指南1.5 Ceph块存储

1.5 Ceph块存储 块存储是存储区域网络中使用的一个数据存储类别.在这种类型中,数据以块的形式存储在卷里,卷会挂接到节点上.它可以为应用程序提供更大的存储容量,并且可靠性和性能都更高.这些块形成的卷会映射到操作系统中,并被文件系统层控制. Ceph引入了一个新的RBD协议,也就是Ceph块设备(Ceph Block Device).RBD为客户端提供了可靠.分布式.高性能的块存储.RBD块呈带状分布在多个Ceph对象之上,而这些对象本身又分布在整个Ceph存储集群中,因此能够保证数据的可靠性

Ceph分布式存储学习指南2.2 从零开始部署你的第一个Ceph集群

2.2 从零开始部署你的第一个Ceph集群 要部署第一个Ceph集群,我们将在三台虚拟机中使用ceph-deploy工具来安装和配置Ceph.ceph-deploy工具是Ceph软件定义存储的一部分,它可以使得你能够更容易地部署和管理Ceph存储集群. 由于我们已经创建了三台运行CentOS 6.4的虚拟机,并且它们都能访问因特网,也能通过私网相互通信.我们将如下图所示把这些虚拟机配置成Ceph存储集群.   1)将ceph-node1配置成可以免SSH密码登录其他节点.在ceph-node1上

Ceph分布式存储学习指南3.4 为Ceph集群部署MDS

3.4 为Ceph集群部署MDS 要为Ceph文件系统配置MDS服务,首先应该有一个正常运行的Ceph集群.在前面的章节中,我们已经部署好了Ceph集群,我们使用这个集群部署MDS.MDS的配置是相当简单的. 1)使用ceph-deploy在ceph-node1节点上配置NDS:   2)检查Ceph集群的状态,并寻找mdsmap部分.你会发现你刚刚配置的MDS节点