目录

  • 1 Linxu服务器配置与管理
    • 1.1 首页
    • 1.2 申报书
    • 1.3 项目介绍
    • 1.4 项目团队
    • 1.5 建设方案
    • 1.6 支出预算
    • 1.7 课程资源
  • 2 学习情境1 RedHat Linux基础操作
    • 2.1 学习情境1.1 RedHat Linux基本应用操作
    • 2.2 学习情境1.2 常见工具软件应用
    • 2.3 学习情境1.3 Linux系统用户与用户组的管理
  • 3 学习情境2 网络服务器架设
    • 3.1 学习情境2.1 DNS服务器架设
    • 3.2 学习情境2.2 DHCP服务的架设
    • 3.3 学习情境2.3 MySQL数据库架设
    • 3.4 学习情境2.4 Apache Web服务器架设
    • 3.5 学习情境2.5 vsftp FTP服务架设
    • 3.6 学习情境2.6 Sendmail电子邮件服务架设
    • 3.7 学习情境2.7 Helix流媒体的架设
  • 4 学习情境3 系统维护管理
    • 4.1 学习情境3.1 Linux核心管理与定制
    • 4.2 学习情境3.2 RAID磁盘阵列与LVM逻辑卷的管理应用
    • 4.3 学习情境3.3 Web集群服务器的架构
学习情境3.2 RAID磁盘阵列与LVM逻辑卷的管理应用

学习情境3.2 RAID磁盘阵列与LVM逻辑卷的管理应用

3.2.1 学习要点

1.知识点:熟悉RAID磁盘阵列的工作方式,熟悉LVM逻辑卷的实现原理

2.能力点:掌握Linux下Software RAID的实现方法,掌握增加/修改/删除卷组逻辑卷的实现方法

3.2.2 任务描述

(1)创建三个大小为100M的分区,分区类型为Linux raid auto。创建RAID5磁盘阵列,RAID5格式化为ext3分区。标记出一坏的RAID设备并且移出(crash)。添加一RAID设备到现有的RAID5并移出现有的RAID5设备。

(2)创建三个大小为100M的分区,分区类型为Linux LVM。创建卷组,卷名为ora_vg,卷组由前两个分区创建的物理卷构成。创建逻辑卷,卷名为ora_lv,大小为50M。对逻辑卷进行在线扩容100M。再对逻辑卷进行在线扩容100M。最后分别移出逻辑卷、卷组、物理卷。

3.2.3 相关知识

1.RAID的技术规范

RAID是“Redundant Array of Independent Disk”的缩写,中文意思是独立冗余磁盘阵列。冗余磁盘阵列技术诞生于1987年,由美国加州大学伯克利分校提出。

RAID磁盘阵列(Redundant Array of Independent Disks)

简单地解释,就是将N个硬盘通过RAID Controller(分Hardware,Software)结合成虚拟单个大容量的硬盘使用,其特色是N个硬盘同时读取速度加快及提供容错性Fault Tolerant,所以RAID是当成平时主要访问数据的Storage不是Backup Solution。

过去RAID一直是高档服务器才有缘享用,一直作为高档SCSI硬盘配套技术应用。21世纪初来随着技术的发展和产品成本的不断下降,IDE硬盘性能有了很大提升,加之RAID芯片的普及,使得RAID也逐渐在个人电脑上得到应用。

2.磁盘阵列的优点

RAID的采用为存储系统(或者服务器的内置存储)带来巨大利益,其中提高传输速率和提供容错功能是最大的优点。

RAID通过同时使用多个磁盘,提高了传输速率。RAID通过在多个磁盘上同时存储和读取数据来大幅提高存储系统的数据吞吐量(Throughput)。在RAID中,可以让很多磁盘驱动器同时传输数据,而这些磁盘驱动器在逻辑上又是一个磁盘驱动器,所以使用RAID可以达到单个磁盘驱动器几倍、几十倍甚至上百倍的速率。这也是RAID最初想要解决的问题。因为当时CPU的速度增长很快,而磁盘驱动器的数据传输速率无法大幅提高,所以需要有一种方案解决二者之间的矛盾。RAID最后成功了。

通过数据校验,RAID可以提供容错功能。这是使用RAID的第二个原因,因为普通磁盘驱动器无法提供容错功能,如果不包括写在磁盘上的CRC(循环冗余校验)码的话。RAID容错是建立在每个磁盘驱动器的硬件容错功能之上的,所以它提供更高的安全性。在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错度,提高了系统的稳定冗余性。

图3.2.1 磁盘组结构

图3.2.1中数据采用(Striping)分块技术,就是对主机请求读/写的数据进行分块,使之分布于多台磁盘机上。数据A分成A0,A1,…,4N个数据块,分布在4个磁盘上。

3.RAID技术的实现

(1)RAID0无差错控制的带区组

要实现RAID0必须要有两个以上硬盘驱动器,RAID0实现了带区组,数据并不是保存在一个硬盘上,而是分成数据块保存在不同驱动器上。因为将数据分布在不同驱动器上,所以数据吞吐率大大提高,驱动器的负载也比较平衡。如果刚好所需要的数据在不同的驱动器上效率最好。它不需要计算校验码,实现容易。它的缺点是它没有数据差错控制,如果一个驱动器中的数据发生错误,即使其他盘上的数据正确也无济于事了。不应该将它用于对数据稳定性要求高的场合。如果用户进行图像(包括动画)编辑和其他要求传输比较大的场合使用RAID0比较合适。同时,RAID可以提高数据传输速率,比如所需读取的文件分布在两个硬盘上,这两个硬盘可以同时读取。那么读取同样文件的时间被缩短为原来的1/2。在所有的级别中,RAID 0的速度是最快的。但是RAID 0没有冗余功能的,如果一个磁盘(物理)损坏,则所有的数据都无法使用。

RAID 0系统的工作原理,如图3.2.2所示。

图3.2.2 RAID0工作原理

图3.2.3 RAID1工作原理

(2)RAID1镜像结构

对于使用这种RAID1结构的设备来说,RAID控制器必须能够同时对两个盘进行读操作和对两个镜像盘进行写操作。通过图3.2.3也可以看到必须有两个驱动器。如果在一组盘出现问题时,可以使用镜像,提高系统的容错能力。它比较容易设计和实现。每读一次盘只能读出一块数据,也就是说数据块传送速率与单独的盘的读取速率相同。因为RAID1的校验十分完备,因此对系统的处理能力有很大的影响,通常的RAID功能由软件实现,而这样的实现方法在服务器负载比较重的时候会大大影响服务器效率。当系统需要极高的可靠性时,如进行数据统计,那么使用RAID1比较合适。而且RAID1技术支持“热替换”,即不断电的情况下对故障磁盘进行更换,更换完毕只要从镜像盘上恢复数据即可。当主硬盘损坏时,镜像硬盘就可以代替主硬盘工作。镜像硬盘相当于一个备份盘,可想而知,这种硬盘模式的安全性是非常高的,RAID1的数据安全性在所有的RAID级别上来说是最好的。但是其磁盘的利用率却只有50%,是所有RAID级别中最低的。

(3)RAID2带海明码校验

从概念上讲,RAID2同RAID3类似,两者都是将数据条块化分布于不同的硬盘上,条块单位为位或字节。然而RAID2使用一定的编码技术来提供错误检查及恢复。这种编码技术需要多个磁盘存放检查及恢复信息,使得RAID2技术实施更复杂。因此,在商业环境中很少使用。

(4)RAID3带奇偶校验码的并行传送

这种校验码与RAID2不同,只能查错不能纠错。它访问数据时一次处理一个带区,这样可以提高读取和写入速度,它像RAID0一样以并行的方式来存放数,但速度没有RAID0快。校验码在写入数据时产生并保存在另一个磁盘上。需要实现时用户必须要有三个以上的驱动器,写入速率与读出速率都很高,因为校验位比较少,因此计算时间相对而言比较少。用软件实现RAID控制将是十分困难的,控制器的实现也不是很容易。它主要用于图形(包括动画)等要求吞吐率比较高的场合。不同于RAID2,RAID3使用单块磁盘存放奇偶校验信息。如果一块磁盘失效,奇偶盘及其他数据盘可以重新产生数据。如果奇偶盘失效,则不影响数据使用。RAID3对于大量的连续数据可提供很好的传输率,但对于随机数据,奇偶盘会成为写操作的瓶颈。利用单独的校验盘来保护数据虽然没有镜像的安全性高,但是硬盘利用率得到了很大的提高,为n-1。

图3.2.4 RAID3工作原理

如图3.2.4所示,数据A分成4个块A0,A1,A2,A3,分布在4个磁盘机上,而校验码放在单独的效验盘上。

(5)RAID4带奇偶校验码的独立磁盘结构

RAID4和RAID3很像,不同的是,它对数据的访问是按数据块进行的,也就是按磁盘进行的,每次是一个盘。在图上可以这么看,RAID3是一次一横条,而RAID4一次一竖条。它的特点和RAID3也挺像,不过在失败恢复时,它的难度可要比RAID3大得多了,控制器的设计难度也要大许多,而且访问数据的效率不怎么好。

(6)RAID5分布式奇偶校验的独立磁盘结构

从它的示意图上可以看到,它的奇偶校验码存在于所有磁盘上,其中的0 parity代表第0带区的奇偶校验值,其他的意思也相同。RAID5的读出效率很高,写入效率一般,块式的集体访问效率不错。因为奇偶校验码在不同的磁盘上,所以提高了可靠性,允许单个磁盘出错。RAID5也是以数据的校验位来保证数据的安全,但它不是以单独硬盘来存放数据的校验位,而是将数据段的校验位交互存放于各个硬盘上。这样,任何一个硬盘损坏,都可以根据其他硬盘上的校验位来重建损坏的数据。硬盘的利用率为n-1。但是它对数据传输的并行性解决不好,而且控制器的设计也相当困难。RAID3与RAID5相比,重要的区别在于RAID3每进行一次数据传输,需涉及所有的阵列盘。而对于RAID5来说,大部分数据传输只对一块磁盘操作,可进行并行操作。在RAID5中有“写损失”,即每一次写操作,将产生四个实际的读/写操作,其中两次读旧的数据及奇偶信息,两次写新的数据及奇偶信息。RAID5优点是提供了冗余性(支持一块盘掉线后仍然正常运行),磁盘空间利用率较高(N-1/N)的读写速度较快(N-1倍)。但当掉盘之后,运行效率大幅下降。

图3.2.5 RAID5工作原理

如图3.2.5所示,数据0带区被分成4个块A0,B0,C0,D0,分布在4个磁盘机上,而校验码放在磁盘E上。

4.创建RAID5磁盘阵列

假设我们有1块硬盘/dev/sda(sda表示scsi接口类型,a表示第一个磁盘编号),创建3个分区,每个分区大小100M,然后我们对它进行分区操作,并把卷标属性设置成fd(Linux raid auto分区格式)类型。

(1)创建3个分区,类型为Linux raid auto磁盘阵列

[root@localhost/]#fdisk/dev/sda//对磁盘sda进行分区管理

The number of cylinders for this disk is set to 1435.

There is nothing wrong with that,but this is larger than 1024,and could in certain setups cause problemswith:

1)software that runs at boot time(e.g.,old versions of LILO)

2)booting and partitioning software from other OSs

(e.g.,DOSFDISK,OS/2 FDISK)

Command(m for help):p//显示当前分区表

Disk/dev/sda:10.7 GB,10737418240 bytes

255 heads,63 sectors/track,1305 cylinders

Units=cylinders of 16065∗512=8225280 bytes

Device Boot Start End Blocks Id System

/dev/sda1 ∗ 1 1147 9213246 83 Linux

//sda1是Linux ext3类型分区格式

/dev/sda2 1148 1274 1020127+ 82 Linux swap/Solaris

//sda2是swap交换分区

Command(m for help):n(开始新分区)

Command action

e extended//扩展分区标示

p primary partition(1-4)//主分区标示

e(扩展分区)//创建扩展分区

Partition number(1-4):3//因为已经有两个分区了,所以新分区的序号选3

First cylinder(1275-1435,default 1275)://分区开始的磁柱数,默认是1275开始,不需要改变大小

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435)://设置分区大小,这里用默认的磁盘最后一个磁柱数1435,这样硬盘的剩余空间全做成扩展分区

Command(m for help):p//显示当前分区表

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

可以看见有一新的分区sda3,类型是扩展分区

Command(m for help):n//创建新的分区

Command action

l logical(5 or over)

p primary partition(1-4)

l//选逻辑分区

First cylinder(1275-1435,default 1275)://分区开始的磁柱数

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435):+100M//设置分区大小是100M

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

Device Boot Start End Blocks Id System

/dev/sda1 ∗ 1 1147 9213246 83 Linux

/dev/sda2 1148 1274 1020127+ 82 Linux swap/Solaris

/dev/sda3 1275 1435 1293232+ 5 Extended

/dev/sda5 1275 1287 104391 83 Linux

可以看见新增一分区sda5,分区类型是默认的ext3

Command(m for help):t//修改分区类型标记

Partition number(1-5):5//修改第5个分区

Hex code(type L to list codes):L//显示系统支持的分区类型

可以看到Linux raid auto分区类型的代码是fd

Hex code(type L to list codes):fd//修改sda5分区类型为8e

Changed system type of partition 5 to fd(Linux raid auto)

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

Device Boot Start End Blocks Id System

/dev/sda1 ∗ 1 1147 9213246 83 Linux

/dev/sda2 1148 1274 1020127+82 Linux swap/Solaris

/dev/sda3 1275 1435 1293232+5 Extended

/dev/sda5 1275 1287 104391 8e Linux LVM

可以看见sda5的分区类型已经改为Linux raid auto。

如上所示sda6 sda7的就不演示了。

(2)让硬盘的分区改动生效

Command(m for help):w//保存退出

The partition table has been altered!

Calling ioctl()to re-read partition table.

WARNING:Re-reading the partition table failed with error 16:设备或资源忙.

The kernel still uses the old table.

The new table will be used at the next reboot.

Syncing disks.

#partprobe//重新读取分区表

这样系统就不需要重启,新的分区已经建立好了。

(3)创建RAID5磁盘阵列

#mdadm-C/dev/md0-l5-n3/dev/sda5/dev/sda6/dev/sda7//mdadm为RAID管理程序,-C指创建一个新的阵列;“/dev/md0”表示阵列设备名称;“-l5”表示设置阵列模式(lev⁃el),这里设为RAID5模式;“-n3”指设置阵列中活动设备的数目。

mdadm:array/dev/md0 started.

这样建立了等级为RAID5的磁盘阵列分区/dev/md0,而md0由sda5,sda6,sda7组成

(4)显示RAID5状况

#mdadm—detail/dev/md0//显示md0这个RAID5设备状况

/dev/md0:

Version:00.90.03

Creation Time:Fri May 29 19:25:47 2009

Raid Level:raid5

Array Size:208640(203.78 MiB 213.65 MB)

Used Dev Size:104320(101.89 MiB 106.82 MB)

Raid Devices:3

Total Devices:3

Preferred Minor:0

Persistence:Superblock is persistent

Update Time:Fri May 29 19:25:48 2009

State:clean

Active Devices:3

Working Devices:3

Failed Devices:0

Spare Devices:0

Layout:left-symmetric

Chunk Size:64K

UUID:92428171:2a3ce940:adae1591:3dd518fe

Events:0.2

Number Major Minor RAIDDevice State

(5)md0设备格式化

#mkfs.ext3/dev/md0//格式化设备为md0的磁盘阵列,分区格式为ext3类型

mke2fs

mke2fs 1.39(29-May-2006)

Filesystem label=

OS type:Linux

Block size=1024(log=0)

Fragment size=1024(log=0)

52208 inodes,208640 blocks

10432 blocks(5.00%)reserved for the super user

First data block=1

Maximum filesystem blocks=67371008

26 block groups

8192 blocks per group,8192 fragments per group

2008 inodes per group

Superblock backups stored on blocks:

8193,24577,40961,57345,73729,204801

Writing inode tables:done

Writing superblocks and filesystem accounting information:done

This filesystem will be automatically checked every 30 mounts or

180 days,whichever comes first. Use tune2fs-c or-i to override.

(6)挂载RAID5到/data目录下

#mkdir/data//建立/data目录

#mount/dev/md0/data//挂载md0这个RAID5设备到/data目录

5.管理RAID5磁盘阵列

(1)标记出一坏的RAID设备并且移出(crash)

#mdadm—manage/dev/md0—fail/dev/sda7//假如sda7分区坏了,让sda7分区失效

mdadm:set/dev/sda7 faulty in/dev/md0

#mdadm—detail/dev/md0

Number Major Minor RAIDDevice State

可以看出/sda7已经被标示出不可使用

#mdadm—manage/dev/md0—remove/dev/sda7//移出sda7分区设备

mdadm:hot removed/dev/sda7

#mdadm—detail/dev/md0//显示md0这个磁盘阵列设备状况

Number Major Minor RAIDDevice State

(2)添加一RAID设备到现有的RAID5

新做一个分区sda7,类型是Linux raid auto,以取代原来坏的分区

#mdadm—manage/dev/md0—add/dev/sda7//在md0这个RAID设备中,添加sda7分区

mdadm:re-added/dev/sda7

#mdadm—detail/dev/md0//显示md0这个raid5设备状况

Number Major Minor RAIDDevice State

2 8 7 2 active sync  /dev/sda7

(3)移出现有的RAID5设备

#umount/data/ //卸载/data目录

#mdadm—stop/dev/md0//停止对md0设备的使用

mdadm:stopped/dev/md0

#mdadm—detail/dev/md0//显示md0这个RAID5设备状况

mdadm:md device/dev/md0 does not appear to be active.//md0的RAID5已经被移出了

6.LVM简介

LVM是逻辑盘卷管理(Logical Volume Manager)的简称,它是Linux环境下对磁盘分区进行管理的一种机制,LVM是建立在硬盘和分区之上的一个逻辑层,用来提高磁盘分区管理的灵活性。物理卷(Physical Volume)物理卷就是指硬盘分区或从逻辑上与磁盘分区具有同样功能的设备(如RAID),是LVM的基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比较,却包含有与LVM相关的管理参数。

Linux用户安装Linux操作系统时遇到的一个最常见的难以决定的问题就是如何正确地评估各分区大小,以分配合适的硬盘空间。而遇到出现某个分区空间耗尽时,解决的方法通常是使用符号链接,或者使用调整分区大小的工具(比如PatitionMagic等),但这都只是暂时解决办法,没有根本解决问题。随着Linux的逻辑盘卷管理功能的出现,这些问题都迎刃而解。

7.LVM基本术语

(1)物理卷:Physical Volume(PV)

即为LVM底层的东西,可以为一个硬盘如sda,sdb,也可以为一个硬盘里面的一个分区如sda1,sdb1。

(2)Volume Group(VG)卷组

它是由一个或者多个物理卷组成的一个抽象的概念,表现形式为/dev/vg0,注意这里的vg0为一个目录而不是一个设备节点,卷组名称就是它的目录名称。

(3)物理块Physical Extents(PE):

当一个物理卷加入卷组时,它的空间会分成大小均等的小组块,我们称为物理块,简称(PE),物理块大小是在创建卷组的时候被指定,具有代表性的物理块大小是4MB。更形象的表示它们,我们可以如图3.2.6所示去认识它们:

图3.2.6 物理卷

卷组Volume Group(VG),如图3.2.7所示:

逻辑卷Logical Volume(LV)(如图3.2.8所示):

图3.2.7 卷组

图3.2.8 逻辑卷

上面我们看见的LV0和LV1就是基于VG0上建立的逻辑卷。

8.创建LVM

使用RAID可实现容错或加快数据读写速度的功能,但无法在不丢失分区数据的前题下增大分区。想解决这个问题就需要使用LVM了。LVM是Logical Volume Manager的缩写。配置LVM首先要将普通分区转换为物理卷,再通过物理卷创建逻辑卷组,最后在逻辑卷组中创建逻辑卷。

假设我们有1块硬盘/dev/sda,创建3个分区,每个分区大小100M,然后我们对它进行分区操作,并把卷标属性设置成8e(Linux LVM分区格式)。

(1)创建3个分区,类型为LVM逻辑卷

[root@localhost/]#fdisk/dev/sda//对磁盘sda进行分区管理

The number of cylinders for this disk is set to 1435.

There is nothing wrong with that,but this is larger than 1024,

and could in certain setups cause problemswith:

1)software that runs at boot time(e.g.,old versions of LILO)

2)booting and partitioning software from other OSs

(e.g.,DOSFDISK,OS/2 FDISK)

Command(m for help):p//显示当前分区表

Disk/dev/sda:10.7 GB,10737418240 bytes

255 heads,63 sectors/track,1305 cylinders

Units=cylinders of 16065∗512=8225280 bytes

//sda1是Linux ext3类型分区格式

//sda2是swap交换分区

Command(m for help):n(开始分区)

Command action

e extended//扩展分区标示

p primary partition(1-4)//主分区标示

e(扩展分区)//创建扩展分区

Partition number(1-4):3//因为已经有两个分区了,所以新分区的序号选3

First cylinder(1275-1435,default 1275)://分区开始的磁柱数,默认是1275开始,不需要改变大小

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435)://设置分区大小,这里用默认的磁盘最后一个磁柱数1435,这样硬盘的剩余空间全做成扩展分区

Command(m for help):p//显示当前分区表

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

Device Boot Start End Blocks Id System

可以看见有一新的分区sda3,类型是扩展分区

Command(m for help):n//创建新的分区

Command action

l logical(5 or over)

p primary partition(1-4)

l//选逻辑分区

First cylinder(1275-1435,default 1275)://分区开始的磁柱数

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435):+100M//设置分区大小是100M

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

可以看见新增一分区sda5,分区类型是默认的ext3

Command(m for help):t//修改分区类型标记

Partition number(1-5):5//修改第5个分区

Hex code(type L to list codes):L//显示系统支持的分区类型

可以看到Linux LVM分区类型的代码是8e

Hex code(type L to list codes):8e//修改sda5分区类型为8e

Changed system type of partition 5 to 8e(Linux LVM)

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

可以看见sda5的分区类型已经改为Linux LVM。

如上所示sda6 sda7的就不演示了。

(2)让硬盘的分区改动生效

Command(m for help):w//保存退出

The partition table has been altered!

Calling ioctl()to re-read partition table.

WARNING:Re-reading the partition table failed with error 16:设备或资源忙.

The kernel still uses the old table.

The new table will be used at the next reboot.

Syncing disks.

#partprobe//重新读取分区表

这样系统就不需要重启,新的分区已经建立好了。

(3)创建物理卷

#pvcreate/dev/sda5/dev/sda6//创建物理卷sda5,sda6

Wiping software RAID md superblock on/dev/sda5

Physical volume"/dev/sda5"successfully created

Wiping software RAID md superblock on/dev/sda6

Physical volume"/dev/sda6"successfully created

(4)显示物理卷状况

#pvdisplay //显示物理卷状况

"/dev/sda6"is a new physical volume of"101.94 MB"//sda6的状况显示

—NEW Physical volume—

PV UUID Vk17ih-cKCq-TKAA-IhXy-4sBL-yRge-o7T2B4

"/dev/sda5"is a new physical volume of"101.94 MB"//sda5的状况显示

—NEW Physical volume—

PV UUID ppuhu3-doSK-Ew0W-Kk7Z-jJuV-N2hh-KFJogI

(5)创建卷组

#vgcreate ora_vg /dev/sda5 /dev/sda6//创建名为org_vg卷组,由sda5,sda6组成Volume group"ora_vg"successfully created

(6)显示卷组状况

#vgdisplay//显示卷组状况

(7)创建逻辑卷

#lvcreate-L+50M-n ora_lv/dev/ora_vg//创建名为ora_lv的逻辑卷,大小为50M,卷组名为ora_vg

Rounding up size to full physical extent 52.00 MB

Logical volume"ora_lv"created

(8)显示逻辑卷状况

(9)逻辑卷格式化

#mkfs.ext3/dev/ora_vg/ora_lv//格式化名为ora_lv的逻辑卷,分区格式为ext3类型

mke2fs 1.39(29-May-2006)

Filesystem label=

OS type:Linux

Block size=1024(log=0)

Fragment size=1024(log=0)

13328 inodes,53248 blocks

2662 blocks(5.00%)reserved for the super user

First data block=1

Maximum filesystem blocks=54525952

7 block groups

8192 blocks per group,8192 fragments per group

1904 inodes per group

Superblock backups stored on blocks:

8193,24577,40961

Writing inode tables:done

Creating journal(4096 blocks):done

Writing superblocks and filesystem accounting information:done

This filesystem will be automatically checked every 20 mounts or

180 days,whichever comes first. Use tune2fs-c or-i to override.

(10)挂载逻辑卷

#mkdir/lvm//建立LVM目录

#mount/dev/ora_vg/ora_lv/lvm//挂载逻辑卷这个设备文件到/LVM目录

#df-h/lvm //显示/LVM目录对节点和磁盘块的使用情况,-h表示大容量格式

文件系统  容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 51M 4.9M 43M 11% /lvm

9.管理逻辑卷

(1)逻辑卷扩容

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 152.00 MB

Logical volume ora_lv successfully resized

#df-h/lvm

文件系统  容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 51M 4.9M 43M 11% /lvm

可以看见增加的容量还没有生效。

#resize2fs/dev/ora_vg/ora_lv//让逻辑卷更改大小生效

resize2fs 1.39(29-May-2006)

Filesystem at/dev/ora_vg/ora_lv ismounted on/lvm;on-line resizing required

Performing an on-line resize of/dev/ora_vg/ora_lv to 155648(1k)blocks.

The filesystem on/dev/ora_vg/ora_lv is now 155648 blocks long.

#df-h/lvm

文件系统  容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 148M 5.3M 135M 4% /lvm

扩容已经生效。

#lvextend-L+100M/dev/ora_vg/ora_lv

Extending logical volume ora_lv to 252.00 MB

Insufficient free space:25 extents needed,but only 12 available

表明已经超出了扩容范围,不能继续扩容(因为252M超出了卷组的容量范围)

(2)物理卷扩容

#pvcreate/dev/sda7//创建新的物理卷,包含sda7分区

Wiping software RAID md superblock on/dev/sda7

Physical volume"/dev/sda7"successfully created

#pvdisplay//显示物理卷状况

"/dev/sda7"is a new physical volume of"101.94 MB"

—NEW Physical volume—

PV Name  /dev/sda7

VG Name

PV Size 101.94 MB

Allocatable NO

PE Size(KByte) 0

Total PE 0

Free PE 0

Allocated PE 0

PV UUID 8WmCCA-uYrU-RX72-D8Bw-4XgV-7j2A-oHxLQk

(3)新增加物理卷加入到卷组

#vgextend ora_vg/dev/sda7//把sda7加入到卷组org_vg

Volume group"ora_vg"successfully extended

#vgdisplay

—Volume group—

VG Name ora_vg

System ID

Format lvm2

Metadata Areas 3

Metadata Sequence No 4

VG Access read/write

VG Status resizable

MAX LV 0

Cur LV 1

Open LV 1

Max PV 0

Cur PV 3

Act PV 3

VG Size 300.00 MB

PE Size 4.00 MB

Total PE 75

Alloc PE/Size 38/152.00 MB

Free PE/Size 37/148.00 MB

VG UUID kgTa0Y-EIAO-7Jij-vKrs-pU6f-Hppa-rQPDbb

(4)逻辑卷扩容

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 252.00 MB

Logical volume ora_lv successfully resized

#resize2fs/dev/ora_vg/ora_lv//让逻辑卷更改生效,因为卷组已经扩容,所以不再出错#df-h/lvm

文件系统  容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 245M 5.7M 227M 3% /lvm

(5)卸载逻辑卷

#umount/lvm//选卸载/lvm目录,停止对逻辑卷的使用

#lvdisplay//显示逻辑卷状况

—Logical volume—

LV Name  /dev/ora_vg/ora_lv

VG Name ora_vg

LV UUID 7r6nwK-8qXe-vFLj-vcQ2-3Ch3-y3ih-Qmf9Ll

LVWrite Access read/write

LV Status available

#open 0

LV Size 252.00 MB

Current LE 63

Segments 3

Allocation inherit

Read ahead sectors auto

-currently set to 256

Block device S253:0

#lvremove/dev/ora_vg/ora_lv//移出逻辑卷

Do you really want to remove active logical volume"ora_lv"?[y/n]:y

Logical volume"ora_lv"successfully removed

(6)卸载卷组

#vgremove/dev/ora_vg//移出卷组org_vg

Volume group"ora_vg"successfully removed

(7)卸载物理卷

#pvremove/dev/sda5/dev/sda6/dev/sda7//移出物理卷sda5,sda6,sda7

Labels on physical volume"/dev/sda5"successfully wiped

Labels on physical volume"/dev/sda6"successfully wiped

Labels on physical volume"/dev/sda7"successfully wiped

3.2.4 任务实施

任务一 RAID5架构管理

任务步骤如下:

(1)创建3个分区,类型为Linux raid auto磁盘阵列

[root@localhost/]#fdisk/dev/sda//对磁盘sda进行分区管理

Command(m for help):n(开始分区)

Command action

e extended//扩展分区标示

p primary partition(1-4)//主分区标示

e(扩展分区)//创建扩展分区

Partition number(1-4):3//因为已经有两个分区了,所以新分区的序号选3

First cylinder(1275-1435,default 1275)://分区开始的磁柱数,默认是1275开始,不需要改变大小

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435)://设置分区大小,这里用默认的磁盘最后一个磁柱数1435,这样硬盘的剩余空间全做成扩展分区

Command(m for help):n//创建新的分区

Command action

l logical(5 or over)

p primary partition(1-4)

l//选逻辑分区

First cylinder(1275-1435,default 1275)://分区开始的磁柱数

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435):+100M//设置分区大小是100M

Command(m for help):t//修改分区类型标记

Partition number(1-5):5//修改第5个分区

Hex code(type L to list codes):L//显示系统支持的分区类型

可以看到Linux raid auto分区类型的代码是fd

Hex code(type L to list codes):fd//修改sda5分区类型为8e

Changed system type of partition 5 to fd(Linux raid auto)

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

Device Boot Start End Blocks Id System

/dev/sda1 ∗ 1 1147 9213246 83 Linux

/dev/sda2 1148 1274 1020127+ 82 Linux swap/Solaris

/dev/sda3 1275 1435 1293232+ 5 Extended

/dev/sda5 1275 1287 104391 8e Linux LVM

可以看见sda5的分区类型已经改为Linux raid auto。

sda6,sda7操作与sda5操作步骤一样。

(2)让硬盘的分区改动生效

Command(m for help):w//保存退出

#partprobe//重新读取分区表

这样系统就不需要重启,新的分区已经建立好了

(3)创建RAID5磁盘阵列

#mdadm-C/dev/md0-l5-n3/dev/sda5/dev/sda6/dev/sda7

mdadm:array/dev/md0 started.

这样建立了等级为RAID5的磁盘阵列分区/dev/md0,而md0由sda5,sda6,sda7组成。

(4)显示RAID5状况

#mdadm—detail/dev/md0

(5)md0设备格式化

#mkfs.ext3/dev/md0//格式化设备为md0的磁盘阵列,分区格式为ext3类型

(6)挂载RAID5到/data目录下

#mkdir/data//建立/data目录

#mount/dev/md0/data//挂载md0这个RAID5设备到/data目录

管理RAID5磁盘阵列:

(1)标记出一坏的RAID设备并且移出(crash)

#mdadm—manage/dev/md0—fail/dev/sda7//假如sda7分区坏了,让sda7分区失效

mdadm:set/dev/sda7 faulty in/dev/md0

#mdadm—manage/dev/md0—remove/dev/sda7//移出sda7分区设备

mdadm:hot removed/dev/sda7

(2)添加一RAID设备到现有的RAID5

新做一个分区sda7,类型是Linux raid auto,以取代原来坏的分区

#mdadm—manage/dev/md0—add/dev/sda7//在md0这个RAID设备中,添加sda7分区

mdadm:re-added/dev/sda7

(3)移出现有的RAID5设备

#umount/data/ //卸载/data目录

#mdadm—stop/dev/md0//停止对md0设备的使用

mdadm:stopped/dev/md0

#mdadm—detail/dev/md0//显示md0这个RAID5设备状况

mdadm:md device/dev/md0 does not appear to be active.//md0的RAID5已经被移出了

任务二 LVM架构管理

任务步骤如下:

创建逻辑卷

(1)创建3个分区,类型为LVM逻辑卷

[root@localhost/]#fdisk/dev/sda//对磁盘sda进行分区管理

Command(m for help):n(开始分区)

Command action

e extended//扩展分区标示

p primary partition(1-4)//主分区标示

e(扩展分区)//创建扩展分区

Partition number(1-4):3//因为已经有两个分区了,所以新分区的序号选3

First cylinder(1275-1435,default 1275)://分区开始的磁柱数,默认是1275开始,不需要改变大小

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435)://设置分区大小,这里用默认的磁盘最后一个磁柱数1435,这样硬盘的剩余空间全做成扩展分区

Command(m for help):n//创建新的分区

Command action

l logical(5 or over)

p primary partition(1-4)

l//选逻辑分区

First cylinder(1275-1435,default 1275)://分区开始的磁柱数

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435):+100M//设置分区大小是100M

Command(m for help):t//修改分区类型标记

Partition number(1-5):5//修改第5个分区

Hex code(type L to list codes):L//显示系统支持的分区类型

可以看到Linux LVM分区类型的代码是8e

Hex code(type L to list codes):8e//修改sda5分区类型为8e

Changed system type of partition 5 to 8e(Linux LVM)

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

Device Boot Start End Blocks Id System

/dev/sda1 ∗ 1 1147 9213246 83 Linux

/dev/sda2 1148 1274 1020127+ 82 Linux swap/Solaris

/dev/sda3 1275 1435 1293232+ 5 Extended

/dev/sda5 1275 1287 104391 8e Linux LVM

可以看见sda5的分区类型已经改为Linux LVM。

sda6,sda7操作与sda5操作步骤一样。

(2)让硬盘的分区改动生效

Command(m for help):w//保存退出

#partprobe//重新读取分区表

这样系统就不需要重启,新的分区已经建立好了

(3)创建物理卷

#pvcreate/dev/sda5/dev/sda6//创建物理卷sda5,sda6

Wiping software RAID md superblock on/dev/sda5

Physical volume"/dev/sda5"successfully created

Wiping software RAID md superblock on/dev/sda6

Physical volume"/dev/sda6"successfully created

(4)显示物理卷状况

#pvdisplay //显示物理卷状况

(5)创建卷组

#vgcreate ora_vg /dev/sda5 /dev/sda6//创建名为org_vg卷组,由sda5,sda6组成

Volume group"ora_vg"successfully created

(6)显示卷组状况

#vgdisplay//显示卷组状况

(7)创建逻辑卷

#lvcreate-L+50M-n ora_lv/dev/ora_vg//创建名为ora_lv的逻辑卷,大小为50M,卷组名为ora_vg

Rounding up size to full physical extent 52.00 MB

Logical volume"ora_lv"created

(8)显示逻辑卷状况

#lvdisplay//显示逻辑卷状况

(9)逻辑卷格式化

#mkfs.ext3/dev/ora_vg/ora_lv//格式化名为ora_lv的逻辑卷,分区格式为ext3类型

(10)挂载逻辑卷

#mkdir/lvm//建立lvm目录

#mount/dev/ora_vg/ora_lv/lvm//挂载逻辑卷这个设备文件到/lvm目录

#df-h/lvm //显示/lvm目录对节点和磁盘块的使用情况,-h表示大容量格式

文件系统 容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 51M 4.9M 43M 11%  /lvm

管理逻辑卷

(1)逻辑卷扩容

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 152.00 MB

Logical volume ora_lv successfully resized

#df-h/lvm

文件系统  容量 已用 可用 已用%挂载点

/dev/mapper/ora_vg-ora_lv 51M 4.9M 43M 11%  /lvm

可以看见增加的容量还没有生效。

#resize2fs/dev/ora_vg/ora_lv//让逻辑卷更改大小生效

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 252.00 MB

Insufficient free space:25 extents needed,but only 12 available

表明已经超出了扩容范围,不能继续扩容(因为252M超出了卷组的容量范围)

(2)物理卷扩容

#pvcreate/dev/sda7//创建新的物理卷,包含sda7分区

Wiping software RAID md superblock on/dev/sda7

Physical volume"/dev/sda7"successfully created

#pvdisplay//显示物理卷状况

"/dev/sda7"is a new physical volume of"101.94 MB"

—NEW Physical volume—

(3)新增加物理卷加入到卷组

#vgextend ora_vg/dev/sda7//把sda7加入到卷组org_vg

Volume group"ora_vg"successfully extended

#vgdisplay

—Volume group—

Free PE/Size 37/148.00 MB

VG UUID kgTa0Y-EIAO-7Jij-vKrs-pU6f-Hppa-rQPDbb

(4)逻辑卷扩容

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 252.00 MB

Logical volume ora_lv successfully resized

#resize2fs/dev/ora_vg/ora_lv//让逻辑卷更改生效,因为卷组已经扩容,所以不再出错#df-h/lvm

文件系统  容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 245M 5.7M 227M 3% /lvm

(5)卸载逻辑卷

#umount/lvm//选卸载/lvm目录,停止对逻辑卷的使用

#lvdisplay//显示逻辑卷状况

#lvremove/dev/ora_vg/ora_lv//移出逻辑卷

Do you really want to remove active logical volume"ora_lv"?[y/n]:y

Logical volume"ora_lv"successfully removed

(6)卸载卷组

#vgremove/dev/ora_vg//移出卷组org_vg

Volume group"ora_vg"successfully removed

(7)卸载物理卷

#pvremove/dev/sda5/dev/sda6/dev/sda7//移出物理卷sda5,sda6,sda7

Labels on physical volume"/dev/sda5"successfully wiped

Labels on physical volume"/dev/sda6"successfully wiped

Labels on physical volume"/dev/sda7"successfully wiped

3.2.4 任务实施

任务一 RAID5架构管理

任务步骤如下:

(1)创建3个分区,类型为Linux raid auto磁盘阵列

[root@localhost/]#fdisk/dev/sda//对磁盘sda进行分区管理

Command(m for help):n(开始分区)

Command action

e extended//扩展分区标示

p primary partition(1-4)//主分区标示

e(扩展分区)//创建扩展分区

Partition number(1-4):3//因为已经有两个分区了,所以新分区的序号选3

First cylinder(1275-1435,default 1275)://分区开始的磁柱数,默认是1275开始,不需要改变大小

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435)://设置分区大小,这里用默认的磁盘最后一个磁柱数1435,这样硬盘的剩余空间全做成扩展分区

Command(m for help):n//创建新的分区

Command action

l logical(5 or over)

p primary partition(1-4)

l//选逻辑分区

First cylinder(1275-1435,default 1275)://分区开始的磁柱数

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435):+100M//设置分区大小是100M

Command(m for help):t//修改分区类型标记

Partition number(1-5):5//修改第5个分区

Hex code(type L to list codes):L//显示系统支持的分区类型

可以看到Linux raid auto分区类型的代码是fd

Hex code(type L to list codes):fd//修改sda5分区类型为8e

Changed system type of partition 5 to fd(Linux raid auto)

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

可以看见sda5的分区类型已经改为Linux raid auto。

sda6,sda7操作与sda5操作步骤一样。

(2)让硬盘的分区改动生效

Command(m for help):w//保存退出

#partprobe//重新读取分区表

这样系统就不需要重启,新的分区已经建立好了

(3)创建RAID5磁盘阵列

#mdadm-C/dev/md0-l5-n3/dev/sda5/dev/sda6/dev/sda7

mdadm:array/dev/md0 started.

这样建立了等级为RAID5的磁盘阵列分区/dev/md0,而md0由sda5,sda6,sda7组成。

(4)显示RAID5状况

#mdadm—detail/dev/md0

(5)md0设备格式化

#mkfs.ext3/dev/md0//格式化设备为md0的磁盘阵列,分区格式为ext3类型

(6)挂载RAID5到/data目录下

#mkdir/data//建立/data目录

#mount/dev/md0/data//挂载md0这个RAID5设备到/data目录

管理RAID5磁盘阵列:

(1)标记出一坏的RAID设备并且移出(crash)

#mdadm—manage/dev/md0—fail/dev/sda7//假如sda7分区坏了,让sda7分区失效

mdadm:set/dev/sda7 faulty in/dev/md0

#mdadm—manage/dev/md0—remove/dev/sda7//移出sda7分区设备

mdadm:hot removed/dev/sda7

(2)添加一RAID设备到现有的RAID5

新做一个分区sda7,类型是Linux raid auto,以取代原来坏的分区

#mdadm—manage/dev/md0—add/dev/sda7//在md0这个RAID设备中,添加sda7分区

mdadm:re-added/dev/sda7

(3)移出现有的RAID5设备

#umount/data/ //卸载/data目录

#mdadm—stop/dev/md0//停止对md0设备的使用

mdadm:stopped/dev/md0

#mdadm—detail/dev/md0//显示md0这个RAID5设备状况

mdadm:md device/dev/md0 does not appear to be active.//md0的RAID5已经被移出了

任务二 LVM架构管理

任务步骤如下:

创建逻辑卷

(1)创建3个分区,类型为LVM逻辑卷

[root@localhost/]#fdisk/dev/sda//对磁盘sda进行分区管理

Command(m for help):n(开始分区)

Command action

e extended//扩展分区标示

p primary partition(1-4)//主分区标示

e(扩展分区)//创建扩展分区

Partition number(1-4):3//因为已经有两个分区了,所以新分区的序号选3

First cylinder(1275-1435,default 1275)://分区开始的磁柱数,默认是1275开始,不需要改变大小

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435)://设置分区大小,这里用默认的磁盘最后一个磁柱数1435,这样硬盘的剩余空间全做成扩展分区

Command(m for help):n//创建新的分区

Command action

l logical(5 or over)

p primary partition(1-4)

l//选逻辑分区

First cylinder(1275-1435,default 1275)://分区开始的磁柱数

Using default value 1275

Last cylinder or+size or+sizeM or+sizeK(1275-1435,default 1435):+100M//设置分区大小是100M

Command(m for help):t//修改分区类型标记

Partition number(1-5):5//修改第5个分区

Hex code(type L to list codes):L//显示系统支持的分区类型

可以看到Linux LVM分区类型的代码是8e

Hex code(type L to list codes):8e//修改sda5分区类型为8e

Changed system type of partition 5 to 8e(Linux LVM)

Command(m for help):p

Disk/dev/sda:11.8 GB,11811160064 bytes

255 heads,63 sectors/track,1435 cylinders

Units=cylinders of 16065∗512=8225280 bytes

可以看见sda5的分区类型已经改为Linux LVM。

sda6,sda7操作与sda5操作步骤一样。

(2)让硬盘的分区改动生效

Command(m for help):w//保存退出

#partprobe//重新读取分区表

这样系统就不需要重启,新的分区已经建立好了

(3)创建物理卷

#pvcreate/dev/sda5/dev/sda6//创建物理卷sda5,sda6

Wiping software RAID md superblock on/dev/sda5

Physical volume"/dev/sda5"successfully created

Wiping software RAID md superblock on/dev/sda6

Physical volume"/dev/sda6"successfully created

(4)显示物理卷状况

#pvdisplay //显示物理卷状况

(5)创建卷组

#vgcreate ora_vg /dev/sda5 /dev/sda6//创建名为org_vg卷组,由sda5,sda6组成

Volume group"ora_vg"successfully created

(6)显示卷组状况

#vgdisplay//显示卷组状况

(7)创建逻辑卷

#lvcreate-L+50M-n ora_lv/dev/ora_vg//创建名为ora_lv的逻辑卷,大小为50M,卷组名为ora_vg

Rounding up size to full physical extent 52.00 MB

Logical volume"ora_lv"created

(8)显示逻辑卷状况

#lvdisplay//显示逻辑卷状况

(9)逻辑卷格式化

#mkfs.ext3/dev/ora_vg/ora_lv//格式化名为ora_lv的逻辑卷,分区格式为ext3类型

(10)挂载逻辑卷

#mkdir/lvm//建立lvm目录

#mount/dev/ora_vg/ora_lv/lvm//挂载逻辑卷这个设备文件到/lvm目录

#df-h/lvm //显示/lvm目录对节点和磁盘块的使用情况,-h表示大容量格式

文件系统 容量 已用 可用 已用% 挂载点

/dev/mapper/ora_vg-ora_lv 51M 4.9M 43M 11%  /lvm

管理逻辑卷

(1)逻辑卷扩容

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 152.00 MB

Logical volume ora_lv successfully resized

#df-h/lvm

文件系统  容量 已用 可用 已用%挂载点

/dev/mapper/ora_vg-ora_lv 51M 4.9M 43M 11%  /lvm

可以看见增加的容量还没有生效。

#resize2fs/dev/ora_vg/ora_lv//让逻辑卷更改大小生效

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 252.00 MB

Insufficient free space:25 extents needed,but only 12 available

表明已经超出了扩容范围,不能继续扩容(因为252M超出了卷组的容量范围)

(2)物理卷扩容

#pvcreate/dev/sda7//创建新的物理卷,包含sda7分区

Wiping software RAID md superblock on/dev/sda7

Physical volume"/dev/sda7"successfully created

#pvdisplay//显示物理卷状况

(3)新增加物理卷加入到卷组

#vgextend ora_vg/dev/sda7//把sda7加入到卷组org_vg

(4)逻辑卷扩容

#lvextend-L+100M/dev/ora_vg/ora_lv//逻辑卷扩容100M

Extending logical volume ora_lv to 252.00 MB

Logical volume ora_lv successfully resized

#resize2fs/dev/ora_vg/ora_lv//让逻辑卷更改生效,因为卷组已经扩容,所以不再出错#df-h/lvm

文件系统  容量 已用 可用 已用%挂载点

/dev/mapper/ora_vg-ora_lv 245M 5.7M 227M 3%  /lvm

(5)卸载逻辑卷

#umount/lvm//选卸载/lvm目录,停止对逻辑卷的使用

#lvdisplay//显示逻辑卷状况

#lvremove/dev/ora_vg/ora_lv//移出逻辑卷

Do you really want to remove active logical volume"ora_lv"?[y/n]:y

Logical volume"ora_lv"successfully removed

(6)卸载卷组

#vgremove/dev/ora_vg//移出卷组org_vg

Volume group"ora_vg"successfully removed

(7)卸载物理卷

#pvremove/dev/sda5/dev/sda6/dev/sda7//移出物理卷sda5,sda6,sda7

Labels on physical volume"/dev/sda5"successfully wiped

Labels on physical volume"/dev/sda6"successfully wiped

Labels on physical volume"/dev/sda7"successfully wiped

3.2.5 考核要点

表3.2.1 《RAID磁盘阵列与LVM逻辑卷的管理应用》考核标准

3.2.6 能力拓展

1.使用RAID作为网络存储设备有许多好处,以下关于RAID的叙述中不正确的是_______。

A.RAID使用多块廉价磁盘阵列构成,提高了性能价格比

B.RAID采用交叉存取技术,提高了访问速度

C.RAID0使用磁盘镜像技术,提高了可靠性

D.RAID3利用一台奇偶校验盘完成容错功能,减少了冗余磁盘数量

2.使用三个硬盘存储数据,保证数据安全性的同时还能让磁盘根据需要动态的缩放,设备sdb sdc sdd,要求

(1)将三个硬盘组成RAID5,实现安全性。

(2)在阵列md0上创建物理卷、卷组、逻辑卷。

(3)将/var目录下的数据文件移植到逻辑卷下。

(4)将逻辑卷挂载到/var目录。