lvm配置实践总结

原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://navyaijm.blog.51cto.com/4647068/816603

最近,公司需要我整理一份Linux的lvm的配置步骤,于是翻出以前的学习笔记,并结合实际配置过程中遇到的一些问题,整理了以下内容。
1.增加硬件
增加的ide硬盘前缀为hd,scsi硬盘前缀为sd;第一块硬盘为hda或sda,第二块硬盘为hdb或sdb,以此类推。
2.用fdisk工具进行分区操作
以第二块scsi硬盘为例:fdisk /dev/sdb
分区的类型要选择8e Linux LVM
3.用vgscan扫描lvm文件系统
使用vgscan -v 显示当前文件系统中已经存在的lvm
4.用pvcreate创建physical volumn
pvcreate /dev/sdb1 /dev/sdb2
此处所用的分区是第二步中操作的类型为8e的分区,pvcreate的参数可以为1个或多个;创建完成后可以用pvdisplay -v来查看创建的情况,用pvremove可以移除lvm的label,是pvcreate的反操作
5.用vgcreate创建virtual group
vgcreate vg01 /dev/sdb1 /dev/sdb2
创建完成使用vgdisplay -v查看创建的情况,vgrename可以修改刚才创建的vg的名字vgremove是vgcreate的反操作,vgreduce可以移除该vg中的一个或多个pv
6.用lvcreate创建logical volumn
lvcreate -L 100M -n lvm01 vg01 (从vg01创建100M的名为lvm01的lvm)
使用lvdisplay -v 查看lvm的创建情况,lvremove为lvcreate的反操作,lvrename改名字
7.用mkfs格式化创建好的lv
创建好lvm后,需要将其格式化为当前操作系统可以使用的文件系统格式
mkfs -t ext3 /dev/vg01/lvm01
8.mout创建好的lv到文件系统
mount -t ext3 /dev/vg01/lvm01 /mnt
9.扩展lvm的容量
lvextend -L +100M /dev/vg01/lvm01
使容量扩展操作马上起作用,可以使用命令
ext2online /dev/vg01/lvm01
对于rhel3及以前版本的Linux,因为没有ext2online命令,需要做如下的操作
umount /dev/vg01/lvm01
resize2fs /dev/vg01/lvm01
再重新安装文件系统
Mount /dev/vg01/lvm01 /mnt
看书笔记:
1.查看物理卷:pvdisplay
2.查看卷组:vgdisplay
3.查看逻辑卷:lvdisplay
4.删除物理卷:pvremove /dev/sda1(需要被删除的物理卷必须是已经不属于任何卷组的,否则删除会失败)
5.添加卷组:vgcreate vg_data /dev/sda1 /dev/sdb1
6.扩展卷组的容量:vgextend vg_data /dev/sda2
7.从卷组中删除物理卷:vgreduce vg_data /dev/sda2
8.添加逻辑卷:lvcreate -L 1000m -n lv_data1 vg_data
9.更改逻辑卷的大小:lvresize -L 1500m /dev/vg_data/lv_data1
10.删除逻辑卷:lvremove /dev/vg_data/lv_data2

本文出自 “屌丝运维男” 博客,请务必保留此出处http://navyaijm.blog.51cto.com/4647068/816603

时间: 2024-10-25 19:22:01

lvm配置实践总结的相关文章

Hue安装配置实践

Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python Web框架Django实现的.通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等.很早以前就听说过Hue的便利与强大,一直没能亲自尝试使用,下面先通过官网给出的特性,通过翻译原文简单了解一下Hue所支持的功能特性集合: 默认基于轻量级sq

【大数据开发套件调度配置实践】——不同周期任务依赖配置

大数据开发过程中常遇到不同运行周期的任务进行依赖,常见 天任务依赖小时任务. 小时任务依赖分钟任务 .那么如何通过大数据开发套件开发这两种场景呢? 本文将从这两个场景出发,结合调度依赖/参数/调度执行等,介绍不同周期调度依赖的最佳操作实践. 再此之前,我们先明确几个概念: 业务日期:业务数据产生的日期,这里指完整一天的业务数据.在大数据开发套件里任务每天能处理的最近的完整一天业务数据是昨天的数据,所以业务日期=日常调度日期-1天. 依赖关系:依赖关系是描述两个或多个节点/工作流之间的语义连接关系

Tomcat 端口、默认应用、域名配置实践

Tomcat 端口.默认应用.域名配置实践 太阳火神的美丽人生 (http://blog.csdn.net/opengl_es) 本文遵循"署名-非商业用途-保持一致"创作公用协议 转载请保留此句:太阳火神的美丽人生 -  本博客专注于 敏捷开发及移动和物联设备研究:iOS.Android.Html5.Arduino.pcDuino,否则,出自本博客的文章拒绝转载或再转载,谢谢合作. 谢谢朋友的公司给我留了一个内部文档发布入口,我很喜欢那里的环境,也很喜欢那里的人,我会尽可能地分享一些

Nginx+Tomcat+Https 服务器负载均衡配置实践方案详解_nginx

由于需要,得搭建个nginx+tomcat+https的服务器,搜了搜网上的发现总是有错,现在整理了些有用的,备忘. 环境:Centos6.5.JDK1.8.Tomcat8.Nginx1.10.1 准备材料: 1.JDK1.8安装包jdk-8u102-linux-x64.tar.gz 2.Tomcat8安装包apache-tomcat-8.0.37.tar.gz 3.Nginx1.10安装包nginx-1.10.1.tar.gz 1.JDK安装配置 解压并安装到/usr/local/jdk [r

Flume(NG)架构设计要点及配置实践

Flume NG是一个分布式.可靠.可用的系统,它能够将不同数据源的海量日志数据进行高效收集.聚合.移动,最后存储到一个中心化数据存储系统中.由原来的Flume OG到现在的Flume NG,进行了架构重构,并且现在NG版本完全不兼容原来的OG版本.经过架构重构后,Flume NG更像是一个轻量的小工具,非常简单,容易适应各种方式日志收集,并支持failover和负载均衡. 架构设计要点 Flume的架构主要有一下几个核心概念: Event:一个数据单元,带有一个可选的消息头 Flow:Even

SolrCloud 4.3.1+Tomcat 7安装配置实践

我们使用Solr Replication可以实现Solr服务器的可用性,即使某一个索引副本由于磁盘介质故障或者误操作删除等,其他的多个复制副本仍然可以提供服务.如果只是单纯的基于Solr Replication技术,只能对一个索引进行管理维护,当索引数据达到一定规模,搜索的性能成了瓶颈,除了重新规划设计索引,实现逻辑划分以外,没有更好地方法实现查询服务器的可扩展性. SolrCloud就是为了解决这个问题而提出的.SolrCloud通过ZooKeeper集群来进行协调,使一个索引(SolrClo

SQL Server 2008 R2的发布订阅配置实践

    纸上得来终觉浅,绝知此事要躬行.搞技术尤其如此,看别人配置SQL SERVER的复制,发布-订阅.镜像.日志传送者方面的文章,感觉挺简单,好像轻轻松松的,但是当你自己去实践的时候,你会发现还真不是那么一回事,毕 竟环境不同.数据库版本或经验关系,你实践的时候会或多或少碰到一些问题,有可能人家是多次实践后,绕开了那些"坑",毕竟写文章是事后总结,人家台上一 分钟,台下十年功.闲话不扯了,进入正题,本文虽然简单,但是趁现在有时间,也记录一下前几天配置Replication的发布订阅

Hadoop-2.2.0集群安装配置实践

Hadoop 2.x和1.x已经大不相同了,应该说对于存储计算都更加通用了.Hadoop 2.x实现了用来管理集群资源的YARN框架,可以面向任何需要使用基于HDFS存储来计算的需要,当然MapReduce现在已经作为外围的插件式的计算框架,你可以根据需要开发或者选择合适的计算框架.目前,貌似对MapReduce支持还是比较好的,毕竟MapReduce框架已经还算成熟.其他一些基于YARN框架的标准也在开发中. YARN框架的核心是资源的管理和分配调度,它比Hadoop 1.x中的资源分配的粒度

CentOS 6.4系统MySQL主从复制基本配置实践

对于MySQL数据库一般用途的主从复制,可以实现数据的备份(如果希望在主节点失效后,能够使从节点自动接管,就需要更加复杂的配置,这里暂时先不考虑),如果主节点出现硬件故障,数据库服务器可以直接手动切换成备份节点(从节点),继续提供服务.基本的主从复制配置起来非常容易,这里我们做个简单的记录总结. 我们选择两台服务器来进行MySQL的主从复制实践,一台m1作为主节点,另一台nn作为从节点. 两台机器上都需要安装MySQL数据库,如果想要卸掉默认安装的,可以执行如下命令: 1 sudo rpm -e