openstack 与 ceph (架构)

参考架构

硬件配置

ceph 由 7 台 华为 RH2288A 组成, 硬件信息:

硬件 型号 数量 统计
cpu Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz 2 24核
内存 16GB 4条 64GB
硬盘 4.0 TB 12 48TB
网卡 千兆 2 2
网卡 万兆 2 2

参考主机信息

主机名 bond0 bond0mask bond0gw bond1 bond1mask bond1gw
hh-yun-ceph-cinder015-128055.vclound.com 10.199.128.55 255.255.252.0 10.199.128.1 240.30.128.55 255.255.248.0 null
hh-yun-ceph-cinder016-128056.vclound.com 10.199.128.56 255.255.252.0 10.199.128.1 240.30.128.56 255.255.248.0 null
hh-yun-ceph-cinder017-128057.vclound.com 10.199.128.57 255.255.252.0 10.199.128.1 240.30.128.57 255.255.248.0 null
hh-yun-ceph-cinder023-128073.vclound.com 10.199.128.73 255.255.252.0 10.199.128.1 240.30.128.73 255.255.248.0 null
hh-yun-ceph-cinder024-128074.vclound.com 10.199.128.74 255.255.252.0 10.199.128.1 240.30.128.74 255.255.248.0 null
hh-yun-ceph-cinder025-128075.vclound.com 10.199.128.75 255.255.252.0 10.199.128.1 240.30.128.75 255.255.248.0 null
hh-yun-ceph-cinder026-128076.vclound.com 10.199.128.76 255.255.252.0 10.199.128.1 240.30.128.76 255.255.248.0 null

ceph 集群组成部分

monitor 节点

CEPH 集群需要至少一个 MONITOR, 一个或多个 OSD 复制对象存储到集群中,  为提高可用性, 当前集群使用了 3 个 MON 进程.
初始化 MONITOR 是部署 CEPH 存储集群的第一步
监控设定了整个集群的重要标准,  例如复制池的数量, 每个 OSD 的 PG 数量, 心跳时间间隔及认证
上述的值可以按照默认设定, 但生产环境下最好知道这些值的作用

osd

OSD 进程, 用于存储数据, 控制数据复制,恢复, reblance, 为 ceph mon 提供监控信息, 自带 osd 心跳
一个 CEPH 集群具有两份数据副本复制时, 那么集群中至少需要两个 osd 进程处于活动状态 (显示为 active+clean)

openstack 与 ceph

ceph 块设备使用 thin-provision (非预占式), 可以重定义大小, 线性方式存储数据到 ceph 集群中的多个 osd,
ceph 块设备影响 RADOS 性能, 如快照, 复制及同步,  ceph 的 RADOS 块设备 (RBD) 接口通过内核模块或者 librdb 库工作
注意:  内核模块可以使用 linux 页缓存, librdb 基于应用层,  ceph 支持 RDB 缓存

可以使用 ceph 块设备 images 与 openstack libvir 进行对接, 配置 QEMU 接口连接 librbd, ceph 条带块设备镜像作为对象跨越到整个集群,
使用大的 ceph 块设备性能会比使用一个独立的标准服务器要好
openstack 使用 ceph 块设备, 你需要先安装 QEMU, libvirt 与 openstack
我们推荐使用分离的物理节点进行安装 openstack, openstack 推荐至少使用 8G 及多核 CPU,
参考下面的 openstack/ceph 逻辑结构
可以利用 ceph 块设备 images 与 openstack libvir 进行对接 QEMU 接口连接 librbd
利用 ceph 创建的虚拟块设备会以条带方式存放在整个 ceph 集群中
openstack 要使用 ceph 块设备, 你需要先安装 QEMU, libvirt 与 openstack,  并把 ceph 存储配置完成
+--------------------+
|      openstack     |
+--------------------+
|      libvirt       |
 --------------------+
          |
          | configure
          |
+--------------------+
|        qemu        |
+--------------------+
|       librbd       |
+--------------------+
|     librados       |
+-------+-+----------+
|  osds | | monitors |
+-------+ +----------+

注意: 假如你希望利用 ceph 启动虚拟机, 但ceph 不支持 qcow2 作为虚拟机磁盘格式, glance image 格式必须是 raw

时间: 2024-09-17 04:49:34

openstack 与 ceph (架构)的相关文章

openstack 与 ceph (monitor初始化)

Monitor 节点初始化 执行下面步骤 操作系统初始化 当前环境中, ceph 存储集群统一部署 centos 7.1 操作系统, 并在 /etc/hosts 中登记集群中的服务器主机名, 并完成时间同步 主机名验证 [root@hh-yun-ceph-cinder015-128055 ~]# hostname hh-yun-ceph-cinder015-128055.vclound.com [root@hh-yun-ceph-cinder017-128057 ~]# hostname hh-

openstack 与 ceph ( pool 管理 )

目标 管理 ceph 中的存储池, 保留 rbd 池, 创建 volumes 池, 删除其他存储池, 增加 pg_num 数量 查询当前池方法 [root@hh-yun-ceph-cinder015-128055 ~]# ceph osd lspools 0 data,1 metadata,2 rbd, 删除 data, metadata 池 [root@hh-yun-ceph-cinder015-128055 ~]# ceph osd pool delete metadata metadata

openstack 与 ceph (osd 部署)

当 monitor 运行后, 你需要添加 OSD, 你的集群只有在获得足够的 OSD 数量用于复制对象时候才可能获得 active + clean 状态 例如 osd pool size = 2, 那么至少需要 2 个 OSD, 在启动 MONITOR 后,你的集群具有默认的 CURSH MAP, 当前 CURSH MAP 并没有 CEPH OSD 进程映射到 CEPH 节点 CEPH 提供 CEPH-DISK 工具, 可以准备一次磁盘, 分区或者目录用于 CEPH, ceph-disk 工具通

ceph - 索引

架构与部署 openstack 与 ceph (架构) openstack 与 ceph (monitor初始化) openstack 与 ceph (osd 部署) openstack 与 ceph ( pool 管理 ) openstack 管理二十二 - cinder 连接多个存储 backend openstack 管理二十三 - nova compute 连接 ceph 集群 ceph - crush map 与 pool ceph - 更改 ceph journal 位置 故障与测试

Ceph分布式存储学习指南3.1 Ceph存储架构

第3章 Ceph架构和组件 本章将涵盖以下几大主题: Ceph存储架构 Ceph RADOS Ceph对象存储设备(OSD) Ceph monitor(MON) librados Ceph块存储 Ceph对象网关 Ceph MDS和CephFS 3.1 Ceph存储架构 Ceph存储集群由几个不同的软件守护进程组成,每个守护进程负责Ceph的一个独特功能并将值添加到相应的组件中.每个守护进程是彼此独立的.这是保持Ceph存储集群比黑匣子似的商业存储系统更加便宜的诸多特性中的一个. 下图简要阐述了

开发漫谈:Ceph什么鬼?产品架构解析

在昨天的文章中,笔者介绍到Ceph的主要目标是提供高可扩展性和提供对象存储.块存储和文件系统的存储机制,是一个高扩展.高容错.高一致的开源分布式存储平台. 那么,Ceph的产品架构究竟是什么样的呢?Ceph的产品生态优势什么样的呢? Ceph架构图 从Ceph的架构图我们可以看到,从下到上,一共分为四个层次:基础存储系统RADOS(Reliable, Autonomic, Distributed Object Store,即可靠的.自动化的.分布式的对象存储):基础库librados:高层应用接

重磅干货:OPENSTACK与DRaaS典型架构与设计

随着IT基础架构在新时代中的发展,采用云计算替代传统基础架构的趋势已日渐明显.其中以OpenStack为首的开源云正在逐步靠近各类IT业务系统的核心,承担起更加重要的角色. 随着OpenStack内部架构的逐步完善,对于核心业务的容灾需求也应当被加入到整个架构当中.在以OpenStack为基础的容灾架构中不仅涵盖业务的数据和应用,还包括云主机配置,认证授权,网络等等容灾云的元素.OpenStack容灾架构的部署,对于提高IT业务的可靠性,可用性和连续性至关重要. 本文主要介绍OpenStack在

OpenStack 架构 - 每天5分钟玩转 OpenStack(15)

终于正式进入 OpenStack 部分了. 今天开始,CloudMan 将带着大家一步一步揭开 OpenStack 的神秘面纱. OpenStack 已经走过了 6 个年头. 每半年会发布一个版本,版本以字母顺序命名.现在已经到第 12 个版本 Liberty(字母 L). OpenStack最初只有两个模块(服务),现在已经有 20+(见下图),每个模块作为独立的子项目开发. 面对如此庞大的阵容,作为初学者我们如何起步呢? 这也是 CloudMan 写这个系列教程的初衷: 通过实际操作帮助初学

OpenStack最新版本Folsom架构解析

两年前OpenStack基于NASA的Nova项目和Rackspace的Swift项目合并得以建立,而今OpenStack已经成为云计算领域的一颗新星,继2012年四月发布Essex版本之后,在今年九月底OpenStack第6版Folsom正式发布,本文简要分析了OpenStack Folsom的架构. Folsom逻辑结构图 Object Store Swift结构是分布式的,这样既可以防止任何单一的节点上出问题,又可以进行横向的扩展.它包含的组件有: Prox server:它负责接受由Op