Ceph 实验室:概述

本实验室目标是构建一个完整的Ceph学习,开发环境,帮助立志学习Ceph的同学们,快速入门,快速提高!

包括博客文字部分和录制的相关视频。主要内容包括:

  • 快速部署一个ceph集群
  • ceph与Openstack ocata的集成
  • ceph集群横向扩展
  • ceph集群管理
  • ceph集群问题解决
  • ceph集群性能调优
  • ceph集群原理
  • 云计算存储理论深入解析


实验室环境

     在ubuntu16操作系统上用vagrant起动五台vm构成了实验室环境。为了保证Openstack aio能正常运行,最好有6G的mem。有需要这套环境的同学,可以通过后面的联系方式联系我。

     环境:

  • Ubuntu 16 + Vagrant
  • window + vmware station + ubuntu 16 + Vagrant
  • 6G + mem
主机名 IP 功能
ceph-node1 192.168.1.120 ceph节点 
ceph-node2 192.168.1.121 ceph节点
ceph-node3  192.168.1.122  ceph横向扩展节点
test 192.168.1.123 Openstack测试极点,安装Rally和sharker
cloud 192.168.1.102 Openstack ocata


实验室联系方式:

微信:micro9229

e-mail: 840814120@qq.com

时间: 2024-10-03 11:47:51

Ceph 实验室:概述的相关文章

Ceph实验室:第二课:集成ceph与openstack

本课程介绍如何配置ceph作为Nova的后端存储,用来存放vm的临时磁盘. 集成ceph与Openstack Nova 安装ceph客户端集成ceph与Openstack的第一步就是要在openstack的节点上安装ceph客户端(一些ceph命令行工具和连接ceph集群需要的libraries). $ ceph-deploy install --cli --no-adjust-repos openstack $ ceph-deploy config push openstack 创建pool

Ceph实验室:第四课:Ceph监控

本课程演示如何监控一个Ceph集群.我们将学习如何用ceph的命令行工具进行监控. 监控集群的整体状态 健康状态 ceph命令的health选项查看集群的健康状态. # ceph health detail HEALTH_WARN clock skew detected on mon.ceph-node2; Monitor clock skew detected mon.ceph-node2 addr 192.168.1.121:6789/0 clock skew 0.194536s > max

Ceph实验室:第八课:查看Ceph CRUSH map

查看CRUSH map 从monitor节点上获取CRUSH map [root@ceph ceph]# ceph osd getcrushmap -o crushmap_compiled_file 反编译CRUSH map [root@ceph ceph]# crushtool -d crushmap_compiled_file -o crushmap_decompiled_file 修改完成后,我们需要编译他 [root@ceph ceph]# crushtool -d crushmap_d

Ceph实验室:第七课:Ceph块存储操作

创建Ceph块设备 创建一个1024MB大小的块设备 #rbd create rbd1 --size 1024 -p compute 列出创建的块image #rbd ls -p compute 检查块image的细节 #rbd --image rbd1 info -p compute rbd image 'rbd1': size 1024 MB in 256 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.14895

Ceph实验室:第三课:Ceph服务管理

本次课程演示在centos 7下对ceph各个服务进程的管理.主要包括monitor和OSD进程. Monitor服务 检查状态 [root@ceph-node1 ceph]# systemctl status ceph-mon@ceph-node1.service 停止服务 [root@ceph-node1 ceph]# systemctl stop ceph-mon@ceph-node1.service 启动服务 [root@ceph-node1 ceph]# systemctl start

Ceph实验室:第一课:快速部署ceph集群

本次实验演示如何快速地在centos上部署ceph分布式存储集群.目标是在ceph-node1和ceph-node2上创建一个两节点的集群. 环境 硬件环境 主机名 IP 功能 备注 ceph-node1 192.168.1.120 deploy,mon*1,osd*3 ceph-node2 192.168.1.121 deploy,mon*1,osd*3 ceph-node3 192.168.1.122 横向扩展节点 cloud 192.168.1.102 openstack ocata te

Ceph实验室:第六课:Ceph运维之横向扩展

Ceph支持在一个已有的集群中增加一个带有一组磁盘的新节点来扩展其容量,而且在服务部宕机的情况下进行扩展. 1: 在新节点上安装ceph软件包,保证和ceph集群的软件版本一致 #ceph-deploy install ceph-node3 --release jewel 2: 列出新节点上所有可用磁盘 #ceph-deploy disk list ceph-node3 3: 将ceph-node3上的磁盘加入到ceph集群 #ceph-deploy disk zap ceph-node3:sd

Ceph实验室:第五课:Ceph运维之换盘

在ceph集群里,磁盘出故障是不可避免,所以替换故障磁盘成为ceph日常运维不断重复的任务.本课程演示如何替换一个故障盘. 定位故障磁盘 #MegaCli -PDList -aALL|grep "Media Error" Enclosure Device ID: 0 Slot Number: 3 Enclosure position: 0 Device Id: 2 Sequence Number: 2 Media Error Count: 227 <- 物理故障 Other Er

《 Ceph分布式存储学习指南》导读

本节书摘来自华章出版社< Ceph分布式存储学习指南>一书中,作者Richard Banfield 著 易艺 译   目录 第1章 Ceph存储介绍 1.1 概要 1.2 Ceph的历史和发展 1.3 Ceph和存储的未来 1.4 兼容性组合 1.5 Ceph块存储 1.6 Ceph文件系统 1.7 Ceph对象存储 1.8 Ceph与其他存储解决方案 1.9 GPFS 1.10 iRODS 1.11 HDFS 1.12 Lustre 1.13 Gluster 1.14 Ceph 总结 第2章