Ceph实验室:第三课:Ceph服务管理

本次课程演示在centos 7下对ceph各个服务进程的管理。主要包括monitor和OSD进程。

Monitor服务

  • 检查状态

[root@ceph-node1 ceph]# systemctl status ceph-mon@ceph-node1.service

  • 停止服务

[root@ceph-node1 ceph]# systemctl stop ceph-mon@ceph-node1.service

  • 启动服务

[root@ceph-node1 ceph]# systemctl start ceph-mon@ceph-node1.service

OSD服务

  • 检查状态

[root@ceph-node2 vagrant]# systemctl status ceph-osd@3.service

  • 起停服务
# ceph osd stat
     osdmap e26: 6 osds: 6 up, 6 in
            flags sortbitwise,require_jewel_osds
# systemctl stop ceph-osd@3.service
# ceph osd stat
     osdmap e27: 6 osds: 5 up, 6 in
            flags sortbitwise,require_jewel_osds
# systemctl start ceph-osd@3.service
# ceph osd stat
     osdmap e28: 6 osds: 6 up, 6 in
            flags sortbitwise,require_jewel_osds
时间: 2024-07-28 22:14:48

Ceph实验室:第三课:Ceph服务管理的相关文章

Ceph实验室:第二课:集成ceph与openstack

本课程介绍如何配置ceph作为Nova的后端存储,用来存放vm的临时磁盘. 集成ceph与Openstack Nova 安装ceph客户端集成ceph与Openstack的第一步就是要在openstack的节点上安装ceph客户端(一些ceph命令行工具和连接ceph集群需要的libraries). $ ceph-deploy install --cli --no-adjust-repos openstack $ ceph-deploy config push openstack 创建pool

Ceph实验室:第一课:快速部署ceph集群

本次实验演示如何快速地在centos上部署ceph分布式存储集群.目标是在ceph-node1和ceph-node2上创建一个两节点的集群. 环境 硬件环境 主机名 IP 功能 备注 ceph-node1 192.168.1.120 deploy,mon*1,osd*3 ceph-node2 192.168.1.121 deploy,mon*1,osd*3 ceph-node3 192.168.1.122 横向扩展节点 cloud 192.168.1.102 openstack ocata te

Ceph实验室:第五课:Ceph运维之换盘

在ceph集群里,磁盘出故障是不可避免,所以替换故障磁盘成为ceph日常运维不断重复的任务.本课程演示如何替换一个故障盘. 定位故障磁盘 #MegaCli -PDList -aALL|grep "Media Error" Enclosure Device ID: 0 Slot Number: 3 Enclosure position: 0 Device Id: 2 Sequence Number: 2 Media Error Count: 227 <- 物理故障 Other Er

Ceph实验室:第七课:Ceph块存储操作

创建Ceph块设备 创建一个1024MB大小的块设备 #rbd create rbd1 --size 1024 -p compute 列出创建的块image #rbd ls -p compute 检查块image的细节 #rbd --image rbd1 info -p compute rbd image 'rbd1': size 1024 MB in 256 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.14895

Ceph实验室:第六课:Ceph运维之横向扩展

Ceph支持在一个已有的集群中增加一个带有一组磁盘的新节点来扩展其容量,而且在服务部宕机的情况下进行扩展. 1: 在新节点上安装ceph软件包,保证和ceph集群的软件版本一致 #ceph-deploy install ceph-node3 --release jewel 2: 列出新节点上所有可用磁盘 #ceph-deploy disk list ceph-node3 3: 将ceph-node3上的磁盘加入到ceph集群 #ceph-deploy disk zap ceph-node3:sd

Ceph 实验室:概述

本实验室目标是构建一个完整的Ceph学习,开发环境,帮助立志学习Ceph的同学们,快速入门,快速提高! 包括博客文字部分和录制的相关视频.主要内容包括: 快速部署一个ceph集群 ceph与Openstack ocata的集成 ceph集群横向扩展 ceph集群管理 ceph集群问题解决 ceph集群性能调优 ceph集群原理 云计算存储理论深入解析 实验室环境      在ubuntu16操作系统上用vagrant起动五台vm构成了实验室环境.为了保证Openstack aio能正常运行,最好

人工智能将会改变IT服务管理的三种方式

为了寻求更智能,更快速的服务,IT部门在部署新方法和流程以改进内部服务交付方面一直处于领先地位.在未来的一年,人工智能(AI)将开始推动服务管理方面的新突破,从而为IT部门和组织带来前所未有的效率. 通过将服务管理迁移到云端,IT团队从主要处理业务中断转向构建综合服务目录,帮助员工更快更有效地完成工作.现在,下一轮的颠覆性技术是由人工智能驱动的,这得益于云服务提供的前所未有的数据洞察力.新的人工智能功能可以提供一个分析输入数据的自解析服务台,并将其与相应的解决方案相匹配. 简单地帮助人们完成工作

优化整合服务管理的新理念,让Tivoli平台无所畏惧

近日,IBM公司举办一年一度的•Tivoli用户大会.IBM软件集团大中华区Tivoli软件总经理许伟利先生.IBM Tivoli中国开发中心总经理关德先生,以及来自各行各业的专家和用户都出席了此次盛会.IBM在此次大会中着力描绘了整合服务管理(Integrated Service Management,简称ISM)理念,其中着重介绍了整合服务管理可以怎么样帮助云计算时代发展,介绍了Tivoli在"智慧的建筑"方面的发展策略和最新举措,近一年来Tivoli在中国取得的重要客户实践,并与

企业对IT服务管理认识的误区

错误认识1:"基于ITIL的ITSM或许仅适合特定的领域/行业,对我们并不适用" 不同的国家和不同的行业,在文化.商业理念和政府运作方面存在差异.然而,从技术属性来看,IT系统之间的相似性则大于其差异. 简单地说,当公司业务和政府部门的日常工作依赖于计算机系统时,一定需要有专业IT人员对信息系统提供运营.维护和支持服务,需要解决用户的疑问并规划未来的IT服务提供(Service Delivery). 如此说来,每当IT专业人员在提供IT服务的时候,他们一定会遵从一定的程序和规则--无论

网管系统是企业IT服务管理的有效支撑

如今,ITSM(IT Service Management,IT服务管理)已经成为很多企业所考虑的一个问题.作为基础架构库,ITSM如何实现?ITSM应该建立在什么样的基础之上?这些问题一直在困扰着发展中的企业.对此,北塔网络的产品经理徐弢就这一问题发表了看法.什么是ITSM 网管系统是ITSM的有效支撑 从IT系统诞生至今,通常企业IT网络管理要经过三个发展阶段,第一是硬件基础设施的管理也就是技术驱动阶段,第二是业务驱动阶段,当前两个阶段都趋近完善时,企业将面临一个大问题:如何利用前两阶段积累