Ceph实验室:第七课:Ceph块存储操作

创建Ceph块设备

  • 创建一个1024MB大小的块设备
#rbd create rbd1 --size 1024 -p compute

  • 列出创建的块image
#rbd ls -p compute

  • 检查块image的细节

#rbd --image rbd1 info -p compute


rbd image 'rbd1':
    size 1024 MB in 256 objects
    order 22 (4096 kB objects)
    block_name_prefix: rbd_data.148952ae8944a
    format: 2
    features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
    flags:

注:

layering: 支持分层

striping: 支持条带化 v2

exclusive-lock: 支持独占锁

object-map: 支持对象映射(依赖 exclusive-lock )

fast-diff: 快速计算差异(依赖 object-map )

deep-flatten: 支持快照扁平化操作

journaling: 支持记录 IO 操作(依赖独占锁)

rbd image有4个 features,layering, exclusive-lock, object-map, fast-diff, deep-flatten
因为目前内核版本 3.10仅支持layering,修改默认配置
每个ceph node的/etc/ceph/ceph.conf 添加一行
rbd_default_features = 1
这样之后创建的image 只有这一个feature

format 1 - 新建 rbd 映像时使用最初的格式。此格式兼容所有版本的 librbd 和内核模块,但是不支持较新的功能,像克隆。

format 2 - 使用第二版 rbd 格式, librbd 和 3.11 版以上内核模块才支持(除非是分拆的模块)。此格式增加了克隆支持,使得扩展更容易,还允许以后增加新功能

映射Ceph块设备

映射块设备到client

[root@ceph ceph]# rbd feature disable rbd1 -p compute exclusive-lock object-map fast-diff deep-flatten
[root@ceph ceph]# rbd map --image rbd1 -p compute
/dev/rbd0

检查被映射的设备

[root@ceph ceph]# rbd showmapped
id pool    image snap device
0  compute rbd1  -    /dev/rbd0

使用这个块设备


[root@ceph ceph]# fdisk -l /dev/rbd0

Disk /dev/rbd0: 1073 MB, 1073741824 bytes, 2097152 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 4194304 bytes / 4194304 bytes

[root@ceph ceph]# mkfs.xfs /dev/rbd0
meta-data=/dev/rbd0              isize=512    agcount=9, agsize=31744 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=1024   swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

[root@ceph ceph]# mkdir /mnt/ceph-disk1
[root@ceph ceph]# mount /dev/rbd0 /mnt/ceph-disk1
[root@ceph ceph]# df -h /mnt/ceph-disk1
Filesystem      Size  Used Avail Use% Mounted on
/dev/rbd0      1014M   33M  982M   4% /mnt/ceph-disk1
时间: 2024-11-04 16:26:32

Ceph实验室:第七课:Ceph块存储操作的相关文章

Ceph实验室:第二课:集成ceph与openstack

本课程介绍如何配置ceph作为Nova的后端存储,用来存放vm的临时磁盘. 集成ceph与Openstack Nova 安装ceph客户端集成ceph与Openstack的第一步就是要在openstack的节点上安装ceph客户端(一些ceph命令行工具和连接ceph集群需要的libraries). $ ceph-deploy install --cli --no-adjust-repos openstack $ ceph-deploy config push openstack 创建pool

Ceph实验室:第一课:快速部署ceph集群

本次实验演示如何快速地在centos上部署ceph分布式存储集群.目标是在ceph-node1和ceph-node2上创建一个两节点的集群. 环境 硬件环境 主机名 IP 功能 备注 ceph-node1 192.168.1.120 deploy,mon*1,osd*3 ceph-node2 192.168.1.121 deploy,mon*1,osd*3 ceph-node3 192.168.1.122 横向扩展节点 cloud 192.168.1.102 openstack ocata te

Ceph分布式存储学习指南1.5 Ceph块存储

1.5 Ceph块存储 块存储是存储区域网络中使用的一个数据存储类别.在这种类型中,数据以块的形式存储在卷里,卷会挂接到节点上.它可以为应用程序提供更大的存储容量,并且可靠性和性能都更高.这些块形成的卷会映射到操作系统中,并被文件系统层控制. Ceph引入了一个新的RBD协议,也就是Ceph块设备(Ceph Block Device).RBD为客户端提供了可靠.分布式.高性能的块存储.RBD块呈带状分布在多个Ceph对象之上,而这些对象本身又分布在整个Ceph存储集群中,因此能够保证数据的可靠性

使用ceph作为openstack块存储后端却不能挂载到虚机

问题描述 最近在学习使用ceph做openstack的块存储后端,ceph集群已经部署完毕了,2个osd,一个monitor.主要需求就是需要ceph能够为openstack提供一个云硬盘即可!下面是集群状态:root@compute1:/var/lib/ceph/osd#ceph-scluster03b6e784-8076-4814-88d4-52c3d3e45c1ehealthHEALTH_OKmonmape1:1monsat{compute=172.16.1.230:6789/0},ele

Ceph实验室:第六课:Ceph运维之横向扩展

Ceph支持在一个已有的集群中增加一个带有一组磁盘的新节点来扩展其容量,而且在服务部宕机的情况下进行扩展. 1: 在新节点上安装ceph软件包,保证和ceph集群的软件版本一致 #ceph-deploy install ceph-node3 --release jewel 2: 列出新节点上所有可用磁盘 #ceph-deploy disk list ceph-node3 3: 将ceph-node3上的磁盘加入到ceph集群 #ceph-deploy disk zap ceph-node3:sd

Ceph实验室:第五课:Ceph运维之换盘

在ceph集群里,磁盘出故障是不可避免,所以替换故障磁盘成为ceph日常运维不断重复的任务.本课程演示如何替换一个故障盘. 定位故障磁盘 #MegaCli -PDList -aALL|grep "Media Error" Enclosure Device ID: 0 Slot Number: 3 Enclosure position: 0 Device Id: 2 Sequence Number: 2 Media Error Count: 227 <- 物理故障 Other Er

Ceph 实验室:概述

本实验室目标是构建一个完整的Ceph学习,开发环境,帮助立志学习Ceph的同学们,快速入门,快速提高! 包括博客文字部分和录制的相关视频.主要内容包括: 快速部署一个ceph集群 ceph与Openstack ocata的集成 ceph集群横向扩展 ceph集群管理 ceph集群问题解决 ceph集群性能调优 ceph集群原理 云计算存储理论深入解析 实验室环境      在ubuntu16操作系统上用vagrant起动五台vm构成了实验室环境.为了保证Openstack aio能正常运行,最好

存储那些事儿(三):OpenStack的块存储Cinder与商业存储的融合

      OpenStack是一个美国国家航空航天局和Rackspace合作研发的云端运算‎软件,以Apache许可证授权,并且是一个自由软件和开放源代码项目.OpenStack是IaaS(基础设施即服务)‎软件,让任何人都可以自行建立和提供云端运算服务.此外,OpenStack也用作建立防火墙内的"私有云"(Private Cloud),提供机构或企业内各部门共享资源.       Cinder提供了OpenStack的Block Service(块服务).类似于 Amazon 的

分布式存储--块存储 (盘古团队持续招聘中)

业务 盘古是阿里云自研的分布式存储平台,承接了整个阿里云的存储业务,拥有海量的用 户.当前盘古块存储团队主要对接阿里云的云盘,阿里集团数据库,中间件,docker 等业务和团队对分布式块设备的需求.主要的产品形态包括SSD云盘,混合存储云盘, SATA云盘,docker 数据卷,系统盘云化等.目前无论是收费用户数.营收.数据量. 机器规模 在国内都无出其右.而且发展迅猛,每年都是超过100%的增长. 团队&文化 团队成员都是自我驱动型的,大家都坚持用事实,用数据说话,沟通协作便捷高效. 业务飞速