文档库 最新最全的文档下载
当前位置:文档库 › RAID0+1 RAID5 性能比较

RAID0+1 RAID5 性能比较

RAID0+1 RAID5 性能比较
RAID0+1 RAID5 性能比较

RAID5和RAID10的比较

存储是目前IT产业发展的一大热点,而RAID技术是构造高性能、海量存储的基础技术,也是构建网络存储的基础技术。专家认为,磁盘阵列的性能优势得益于磁盘运行的并行性,提高设备运行并行度可以提高磁盘的性能和数据安全性。

20年来,RAID 推出了一系列级别,包括RAID 0、RAID 1、RAID 2、RAID 3、RAID4、RAID 5,以及各种组合如RAID 0 1 等。其中最广泛的包括RAID5与RAID10.但是一直以来,关于RAID5与RAID 10的性能优劣的争端还是非常多的,甚至很多人包括很多公司都那拿出了测试数据。而这些测试数据复杂难懂相互矛盾,更加让用户感到迷惑,不知道怎么选择。

在这里,我将就这两种RAID的内部运行原理来分析一下,看看我们在什么情况下应当适合选哪一种RAI D方式。根据我的经验与分析:象小io的数据库类型操作,如ERP等等应用,建议采用RAID10,而大型文件存储,数据仓库,如医疗PACS系统、视频编辑系统则从空间利用的角度,建议采用RAID5.下面请看具体的性能对比:

为了方便对比,我这里拿同样多驱动器的磁盘来做对比,RAID5选择3D 1P的RAID方案,RAID10选择2D 2D的Raid方案,分别如图:

那么,我们分析如下三个过程:读,连续写,随机写,但是,在介绍这三个过程之前,我需要介绍另外一个磁盘阵列中的重要概念:cache.

磁盘读写速度的要害之一:Cache

cache技术最近几年,在磁盘存储技术上,发展的非常迅速,作为高端存储,cache已经是整个存储的核心所在,就是中低端存储,也有很大的cache存在,包括最简单的RAID卡,一般都包含有几十,甚至几百兆的RAID cache.

cache的主要作用是什么呢?作为缓存,cache的作用具体体现在读与写两个不同的方面:作为写,一般存储阵列只要求数据写到cache就算完成了写操作,当写cache的数据积累到一定程度,阵列才把数据刷到磁盘,可以实现批量的写入。所以,阵列的写是非常快速的。至于cache数据的保护,一般都依靠于镜相与电池(或者是UPS)。

cache在读数据方面的作用一样不可忽视,因为假如所需要读取的数据能在cache中命中的话,将大大降低磁盘寻道所需要的时间。因为磁盘从开始寻道到找到数据,一般都在6ms以上,而这个时间,对于那些

密集型I/O的应用可能不是太理想。但是,假如能在cache保存的数据中命中,一般响应时间则可以缩短在1ms以内。

不要迷信存储厂商的IOPS(每秒的io数)数据,他们可能全部在cache命中的基础上做到的,但是实际上,你的cache命中率可能只有10%.

介绍完cache,我们就可以解释RAID5与RAID10在不同的模式下,工作效率问题了,那么我们来分别分析读操作、连续写和离散写三方面的问题。

读操作方面的性能差异

如我上文的介绍,磁盘阵列读操作的要害更多的体现在cache的命中率上。所以,RAID5和RAID10在读数据上面,他们基本是没有差别的,除非是读的数据能影响cache命中率,导致命中率不一样。

连续写方面的性能差异

连续写的过程,一般表示写入连续的大批量的数据,如媒体数据流,很大的文件等等。连续写操作大部分产生于医疗PACS系统、高教图书馆系统、视频编辑系统等等应用环境下。

根据我本人的经验,在连续写操作过程,假如有写cache存在,并且算法没有问题的话,RAID5比RAID 10甚至会更好一些,虽然也许并没有太大的差别。(这里要假定存储有一定大小足够的写cache,而且计算校验的cpu不会出现瓶颈)。

因为这个时候的RAID校验是在cache中完成,如4块盘的RAID5,可以先在内存中计算好校验,同时写入3个数据1个校验。而RAID10只能同时写入2个数据2个镜相。

如上图所示,4块盘的RAID5可以在同时间写入1、2、3到cache,并且在cache计算好校验之后,我这里假定是6(实际的校验计算并不是这样的,我这里仅仅是假设),同时把三个数据写到磁盘。而4块盘的RAID10不管cache是否存在,写的时候,都是同时写2个数据与2个镜相。

根据我前面对缓存原理的介绍,写cache是可以缓存写操作的,等到缓存写数据积累到一定时期再写到磁盘。但是,写到磁盘阵列的过程是迟早也要发生的,所以RAID5与RAID10在连续写的情况下,从缓存到磁盘的写操作速度会有较小的区别。不过,假如不是连续性的强连续写,只要不达到磁盘的写极限,差别并不是太大。

离散写方面的性能差异

这里可能会较难理解,但是,这一部分也是最重要的部分。企业中的绝大部分数据库应用,如ERP系统等等在数据写入的时候其实都是离散写。

例如oracle 数据库每次写一个数据块的数据,如8K;由于每次写入的量不是很大,而且写入的次数非常频繁,因此联机日志看起来会像是连续写。但是因为不保证能够添满RAID5的一个条带(保证每张盘都能写入),所以很多时候更加偏向于离散写入。

我们从上图看一下离散写的时候,RAID5与RAID10工作方式有什么不同。如上图:我们假定要把一个数字2变成数字4,那么对于RAID5,实际发生了4次io:先读出2与校验6,可能发生读命中然后在cach e中计算新的校验写入新的数字4与新的校验8

如上图我们可以看到:对于RAID10,同样的单个操作,最终RAID10只需要2个io,而RAID5需要4个io.

这里我忽略了RAID5在那两个读操作的时候,可能会发生读命中操作的情况。也就是说,假如需要读取的数据已经在cache中,可能是不需要4个io的。这也证实了cache对RAID5 的重要性,不仅仅是计算校验需要,而且对性能的提高尤为重要。我本人曾经测试过,在RAID5的阵列中,假如关闭写cache,RAI D5的性能将差很多倍。

当然,我并不是说cache对RAID10就不重要了,因为写缓冲,读命中等,都是提高速度的要害所在,不过的是,RAID10对cache的依靠性没有RAID5那么明显而已。

到这里,大家应当也大致明白了RAID5与RAID10的原理与差别了,一般来说,象小io的数据库类型操作,建议采用RAID10,而大型文件存储,数据仓库,则从空间利用的角度,可以采用RAID5.

服务器之磁盘阵列RAID——配置方法(图解)

磁盘阵列可以在安装系统之前或之后产生,系统会视之为一个(大型)硬盘,而它具有容错及冗余的功能。磁盘阵列不单只可以加入一个现成的系统,它更可以支持容量扩展,方法也很简单,只需要加入一个新的硬盘并执行一些简单的指令,系统便可以实时利用这新加的容量。 ·RAID 的种类及应用 IDE和SCSI是计算机的两种不同的接口,前者普遍用于PC机,后者一般用于服务器。基于这两种接口,RAID分为两种类型:基于IDE接口的RAID应用,称为IDE RAID;而基于SCSI接口的RAID应用则相应称为SCSI RAID。 基于不同的架构,RAID 又可以分为: ● 软件RAID (软件RAID) ● 硬件RAID (硬件RAID) ● 外置RAID (External RAID) ·软件RAID很多情况下已经包含在系统之中,并成为其中一个功能,如Windows、Netware及Linux。软件RAID中的所有操作皆由中央处理器负责,所以系统资源的利用率会很高,从而使系统性能降低。软件RAID是不需要另外添加任何硬件设备,因为它是靠你的系统——主要是中央处理器的功能——提供所有现成的资源。 ·硬件RAID通常是一张PCI卡,你会看到在这卡上会有处理器及内存。因为这卡上的处理器已经可以提供一切RAID所需要的资源,所以不会占用系统资源,从而令系统的表现可以大大提升。硬件RAID可以连接内置硬盘、热插拔背板或外置存储设备。无论连接何种硬盘,控制权都是在RAID卡上,亦即是由系统所操控。在系统里,硬件RAID PCI卡通常都需要安驱动程序,否则系统会拒绝支持。

·外置式RAID也是属于硬件RAID的一种,区别在于RAID卡不会安装在系统里,而是安装在外置的存储设备内。而这个外置的储存设备则会连接到系统的SCSI卡上。系统没有任何的RAID功能,因为它只有一张SCSI卡;所有的RAID功能将会移到这个外置存储里。好处是外置的存储往往可以连接更多的硬盘,不会受系统机箱的大小所影响。而一些高级的技术,如双机容错,是需要多个服务器外连到一个外置储存上,以提供容错能力。 ·配置RAID磁盘阵列 一、为什么要创建逻辑磁盘? 当硬盘连接到阵列卡(RAID)上时,操作系统将不能直接看到物理的硬盘,因此需要创建成一个一个的被设置为RAID0,1和5等的逻辑磁盘(也叫容器),这样系统才能够正确识别它。 逻辑磁盘(Logic Drive)、容器(Container)或虚拟磁盘(Virtual Drive)均表示一个意思,他们只是不同阵列卡产商的不同叫法。 二、创建逻辑磁盘的方式 使用阵列卡本身的配置工具,即阵列卡的BIOS。(一般用于重装系统或没有安装操作系统的情况下去创建容器(Adaptec阵列卡)/逻辑驱动器(AMI/LSI 阵列卡)。 使用第三方提供的配置工具软件去实现对阵列卡的管理。如Dell Array Manager。(这些软件用于服务器上已经安装有操作系统) 三、正确识别您的阵列卡的型号(本文以Dell为例,其实都大同小异) 识别您的磁盘阵列控制器(磁盘阵列控制器为可选项, 如果没有购买磁盘阵列控制器的话以该步骤可以省去) 如果您有一块Adaptec磁盘阵列控制器(PERC 2,PERC2/SI,PERC3/SI,PERC3/DI),在系统开机自检的时候您将看到以下信息: Dell PowerEdge Expandable RAID Controller 3/Di, BIOS V2.7-x [Build xxxx](c) 1998-2002 Adaptec, Inc. All Rights Reserved. <<< Press CTRL+A for Configuration Utility! >>>

DELL RAID5 配置

此文档为自行整理,非官方提供资料,仅供参考。疏漏之处敬请反馈。 对RAID进行操作很可能会导致数据丢失,请在操作之前务必将重要数据妥善备份,以防万一。 名称解释: Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组 VD(Virtual Disk):虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical Disk):物理磁盘 HS:Hot Spare 热备 Mgmt:管理 【一】,创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘

3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有 RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。

4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。VD Name根据需要设置,也可为 空。 注:各RAID级别最少需要的硬盘数量,RAID0=1 RAID1=2 RAID5=3 RAID10=4 RAID50=6

linuxLVM的创建和管理

linuxLVM的创建和管理 概述: LVM是Logical Volume Manager(逻辑卷管理器)的简写,它为主机提供了更高层次的磁盘存储管理能力。LVM可以帮助系统管理员为应用与用户方便地分配存储空间。在LVM管理下的逻辑卷可以按需改变大小或添加移除。另外,LVM可以为所管理的逻辑卷提供定制的命名标识。因此,使用LVM 主要是方便了对存储系统的管理,增加了系统的扩展性。 目前LVM在Linux下有两个版本,分别是LVM 1和LVM 2,LVM2不仅仅是Linux逻辑卷管理在版本与功能上的升级,而且是架构在一个新的内核存储子系统(DM,device-mapper)之上的。这个存储子系统提供了一个轻量级的、可扩展的卷管理设施。除了在原有LVM卷管理功能的基础上,Linux的逻辑卷管理将会为用户提供更多的存储管理方案,如镜像、加密卷、多路径技术。所以在本节将以LVM 2为例来详细介绍LVM的创建与管理。 LVM相关概念和术语 LVM是建立在磁盘分区和文件系统之间的一个逻辑层,来为文件系统屏蔽下层磁盘分区布局,提供一个逻辑的盘卷,再在盘卷上来建立文件系统。LVM的结构如图1如示: 图1 LVM结构图

在上面的LVM结构图中,涉及到了很多LVM的相关术语,那么关于这些术语的详细说明如下: 物理卷(physical volume,PV) 物理卷就是指硬盘分区,也可以是整个硬盘或已创建的软RAID ,是LVM的基本存储设备,与普通物理存储介质的区别是该设备包含有LVM相关的管理参数。 卷组(volume group,VG) 卷组是由一个或多个物理卷所组成的存储池,在卷组上能创建一个或多个“LVM分区”(逻辑卷)。 逻辑卷(logical volume,LV) LVM的逻辑卷类似于非LVM系统中的硬盘分区,它建立在卷组之上,是一个标准的块设备,在逻辑卷之上可以建立文件系统。可以做这样一个设想来理解以上三者的关系:如果把PV比做地球的一个板块,VG则是一个地球,因为地球是由多个板块组成的,那么在地球上划分一个区域并标记为亚洲,则亚洲就相当于一个LV。 物理块(physical extent,PE) 物理卷以大小相等的物理块为存储的基本单位,同时也是LVM寻址的最小单元。 逻辑块(logical extent,LE) 逻辑卷以大小相等的逻辑块为存储的基本单位,在同一个卷组中,LE的大小和PE是相等的,并且一一对应。 卷组描述区域(Volume Group Descriptor Area,VGDA) 和磁盘将包含分区信息的元数据保存在位于分区的起始位置的分区表中一样,逻辑卷以及卷组相关的元数据也是保存在位于物理卷的VGDA中。VGDA包括以下内容: PV描述符、VG描述符、LV描述符、和一些PE描述符。系统启动LVM时激活VG,并将VGDA加载至内存,来识别LV的实际物理存储位置。当系统进行I/O操作时,就会根据VGDA建立的映射机制来访问实际的物理位置。 创建逻辑卷 创建逻辑卷通常包括如下步骤: ?创建分区 ? ?创建物理卷 ? ?创建卷组 ? ?激活卷组 ? ?创建逻辑卷

HP DL380 RAID5 配置方法

HP DL380 RAID5 配置方法 HP DL380 RAID5 配置方法 一,自动配置: 通过HP SmartStart(V7.51)随机光盘自动配置RAID5,即:使用光盘引导机器,不用做任何操作,机器自动配置为RAID5 注:对于现有的4块型号大小相同的磁盘自动配置为RAID5。 二,手工配置(修改) 当通过HP SmartStart光盘引导后,画面最后停止在选择语种画面时, 选择相应的语种—点击“Next”后—出现三个按钮,分别是(Deploy Server(用于安装操作系统)、Maintain Server(用于配置机器如:磁盘阵列等)、VieW Documentation(查看文档))--点击“Maintain Server”会出现四个按钮其中第一个是:Configure Array,点击按钮 “Configure Array”进入配置画面:如下图,为配置磁盘阵列画面。 第一步:选择要配置到阵列中磁盘:(RAID5 需要最少3块磁盘),点击“”OK 第二步:创建逻辑驱动器

点击“OK”。 第四步:保存后选择 RAID卡,如下图所示:选择右侧的逻辑驱动器,点击“OK”

第五步:配置一些磁盘阵列参数,按默认即可。 可选操作 1,修改 Stripe Size:选择逻辑驱动器后,点击右侧的 Migrate RAID/Stripe Size后, 在下图所示中修改。

2,查看队列的详细信息:选择创建的队列后,点击右侧“More Information”

每次修改或配置完成后要保存,见第二步图中的(Save按钮)所示

Linux 下LVM详解及创建过程实录

Linux 下LVM 详解及创建过程 LVM 是Logical Volume Manager(逻辑卷管理器的简写 一、准备lvm 环境 1.硬盘的准备 添加了一块硬盘/dev/hdb。 准备了三个分区,方案如下:容量为100M ,仅为了实验准备。/dev/hdb1 /dev/hdb2 /dev/hdb3 2.转换分区类型为lvm 卷 fdisk /dev/hdb t 转换为lvm 卷类型 Device Boot Start End Blocks Id System /dev/hdb1 1 208 98248+ 8e Linux LVM /dev/hdb2 209 416 98280 8e Linux LVM /dev/hdb3 417 624 98280 8e Linux LVM 然后w 保存并且 #partprobe /*使用磁盘分区生效*/ 二、lvm 创建过程

1. 从硬盘驱动器分区中创建物理卷(physical volumes-PV。 2. 从物理卷中创建卷组(volume groups-VG 3. 从卷组中创建逻辑卷(logical volumes-LV,并分派逻辑卷挂载点,其中只有逻辑卷才可以写数据。 lvm 的最大的特点就是可以动态的调整分区的大小,并且可以随着分区容量的增长而增加磁盘空间的容量。 LVM 配置与创建 三、LVM 的物理卷PV 1.相关命令 pvcreate 创建PV pvscan 扫描PV pvdisplay 显示PV pvremove 删除PV partprobe 2.创建物理卷 如果以上容量不够,可以再添加其它分区到物理卷中。 [root@redhat ~]# pvcreate /dev/hdb1 /dev/hdb2 Physical volume "/dev/hdb1" successfully created Physical volume "/dev/hdb2" successfully created

两种方法做RAID5

本文将分两种方法介绍如何做RAID5,其中第一种方法是在Adaptec磁盘阵列控制器上创建Raid (容器),第二种方法是在AIM/LSI磁盘阵列控制器上创建Logical Drive(逻辑磁盘)。 1. 在Adaptec磁盘阵列控制器上创建Raid(容器) 在这种阵列卡上创建容器的步骤如下(注意:请预先备份您服务器上的数据,配置磁盘阵列的过程将会删除服务器硬盘上的所有数据!): 如何做RAID5第1步,首先当系统在自检的过程中出现如(图1)提示时,同时按下“Ctrl+A”组合键。进入如(图2)所示的磁盘阵列卡的配置程序界面。 (图一) (图二) 如何做RAID5第2步,然后选择“Container configuration utility”,进入如(图3)所示配置界面。

(图三) 如何做RAID5第3步,选择“Initialize Drivers“选项去对新的或是需要重新创建容器的硬盘进行初始化(注意: 初始话硬盘将删去当前硬盘上的所有数据),按回车后进入如(图4)所示界面。在这个界面中出现了RAID卡的通道和连接到该通道上的硬盘,使用“Insert”键选中需要被初始化的硬盘(具体的使用方法参见界面底部的提示,下图)。 (图四) 如何做RAID5第4步,全部选择完成所需加入阵列的磁盘后,按加车键,系统键弹出如(图5)所示警告提示框。提示框中提示进行初始化操作将全部删除所选硬盘中的数据,并中断所有正在使用这些硬盘的用户。 (图五)

如何做RAID5第5步,按“Y”键确认即可,进入如(图6)所示配置主菜单(Main Menu)界面。硬盘初始化后就可以根据您的需要,创建相应阵列级别(RAID1,RAID0等)的容器了。这里我们以RAID5为例进行说明。在主菜单界面中选择“Create container”选项。 (图六) 如何做RAID5第6步,按回车键后进入如(图7)所示配置界面,用“insert”键选中需要用于创建Container(容器)的硬盘到右边的列表中去。然后按回车键。在弹出来的如(图8)所示配置界面中用回车选择RAID级别,输入Container的卷标和大小。其它均保持默认不变。然后在“Done”按钮上单击确认即可。 (图七)

怎样配置磁盘阵列RAID5

怎样配置磁盘阵列RAID5 RAID5是大型磁盘阵列中最常见的一种RAID类型,具有访问速度快,容错率高的优点。下面就详细讲解一下RAID5的常见技术常识 RAID 5 模式的入门知识 RAID 5 是一种存储性能、数据安全和存储成本兼顾的存储解决方案。它既能实现RAID 0的高速存储读取功能也能够实现RAID 1的数据恢复功能,可以说是RAID 0和RAID 1的折衷方案。 RAID 5为系统提供数据安全保障,但保障程度要比磁盘镜像低而磁盘空间利用率要比磁盘镜像高。同时RAID 5还具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,而且存储成本相对较低。 RAID 5至少需要三块硬盘才能实现阵列,在阵列当中有三块硬盘时,RAID 控制器将会把需要存储的数据按用户定义的分割大小把文件分成碎片再分别存储到其中的两块硬盘上,此时另一块硬盘不接收文件碎片,只用来存储其它两块硬盘的校验信息,这个校验信息是通过RAID控制器上的单独的芯片运算产生的,而且可以通过这个校验信息来恢复存储在两块硬盘上的数据。 另外,这三块硬盘的任务也是随机的,也就是说在这次存储当中可能是1 号硬盘和2好硬盘用来存储分割后的文件碎片,那么在下次存储的时候可能就是2号硬盘和3号硬盘来完成这个任务了。可以说,在每次存储操作当中,每块硬盘的任务是不一样的,不过,不管任务怎么随机分配也是两块硬盘用来存储数据信息,另一块硬盘用来存储校验信息。 RAID 5可以利用三块硬盘同时实现RAID 0的加速功能也实现RAID 1的数据备份功能,并且当其中的一块硬盘损坏之后,加入一块新的硬盘也可以实现数据的还原。 RAID 5模式并不是完全没有缺点,如果阵列当中某块硬盘上的信息发生了改变的话,那么就需要重新计算文件分割碎片,并且,校验信息也需要重新计算,这时,三个硬盘都需要重新调用那么整个系统性能将会降下来。如果要做RAID 5阵列的话,最好使用相同容量相同速度的硬盘,RAID 5模式的有效容量是阵列中容量最小的硬盘容量乘上阵列中硬盘数减一后的数目,这是因为其中有一块硬盘用来存放校验信息。 RAID 5既能够实现速度上的加倍,同时也能够保证数据的安全性,所以在很多高端系统当中都使用这种RAID模式。 如何实现 RAID 5:

Linux手动创建RAID和LVM分区

这样我们就成功创建了一个RAID5的磁盘分区。

CentOS 5.2 LVM 新增加一块硬盘的方法 来源: ChinaUnix博客日期:2009.11.24 15:50(共有0条评论) 我要评论 有用LVM2,现在空间不足,需再加一块硬盘。 先加上硬盘,用fdisk -l,可以看到新硬盘。 给新加的硬盘分区: fdisk /dev/sdb >n >t >8e(linux LVM) 分成一个分区,格式为linux LVM. 下面开始把分区加到LVM内去: 1.建立物理卷 pvcreate /dev/sdb1 2.把新物理卷加入到卷组中去 vgextend VolGroup00 /dev/sdb1 3.把新的空间加到逻辑卷中去 lvextend -L+10G /dev/VolGroup00/LogVol00 4.加上去之后,目前用df -h还看不到新的空间,需要激活 RHEL 4: ext2online /dev/VolGroup00/LogVol00 RHEL 5: resize2fs -p /dev/VolGroup01/LogVol00 全部搞掂,再用df -h,就可以看到新的空间了。

几个命令: 扩展vg: vgextend vg0(卷组名) /dev/sdc1(pv名) 扩展lv: lvextend -L +200m /dev/vg0/home(lv名) 查看信息:vgdisplay /dev/vg0 ,lvdisplay /dev/vg0/logVol00 数据迁移:pvmove /dev/sda1 /dev/sdc1 删除逻辑卷步骤: A.umout所有lv B.lvremove /dev/vgo/logVol00(有快照要先删除快照) C.vgchange -an /dev/vg0 (休眠vg0,-ay是激活vg0) D.vgremove vg0 (移除) 注意: 迁移时注意PE、LE是一一对应的,大小要一致,迁移时不能改变大小。 记录: 检查当前分区大小 [root@jxxdb2 ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup00-LogVol00 15G 3.7G 9.9G 27% /u01/oracle/oradata [root@jxxdb2 ~]# cat /etc/fstab 检查vg还有多少空间没有分配以及当前lv的大小 [root@jxxdb2 ~]# vgdisplay | egrep "Volume group|VG Name|Alloc PE|Free PE" --- Volume group --- VG Name VolGroup00 Alloc PE / Size 610 / 19.06 GB Free PE / Size 11107 / 347.09 GB [root@jxxdb2 ~]# lvdisplay | egrep " Logical volume|LV Name|VG Name|LV Size"

RAID5设置操作步骤

RAID5 设置方法步骤 1.打开服务器后,待出现提示后按“Ctrl + H”进入RAID设置界面; 2.当进入Adapter Selection 界面后,选择“Start”; 3.当进入MegaRAID BIOS Config Utility Virtual Configuration 界面后,选择“Configuration Wizard”选项; 4.当进入MegaRAID BIOS Config UtilityConfiguration Wizard界面后,选择“New Configuration” 选项; 5.之后出现的Select Configuration Method 选择第一项“Manual Configuration”,然后选择 “NEXT”进入下一步; 6.进入Configuration Preview界面:将Drivers下属的所有驱动全部添加到右侧Virtual Drivers 中;添加方法如下:将鼠标点中Drivers下的Slot 单击“Add To Array”当6个全部添加完毕后,单击“Accept DG”之后单击“NEXT”进入下一步; 7.进入Span Definition界面:单击左侧Array With Free Space 下的“Driver Group”选择“Add To Span”完毕后单击“NEXT”进入下一步; 8.更改RAID Level右侧的下拉菜单选择“RAID 5”之后单击“Update Size”自动配置,选择 适当的“Select Size”单击“Accept”接受,弹出对话框选择“YES”之后“NEXT”进入下一步; 9.之后系统自动回到Configuration Preview界面:单击右侧Virtual Drivers下的“VD0:RAID5…” 选择“Accept”接受,弹出对话框选择“YES”; 10.进入Virtual Driver界面,选择“Cancel”,出现对话框选择“YES”; 11.快速安装,待安装之后返回首界面,“EXIT”离开,重新启动;

Linux LVM逻辑卷配置过程详解(创建,增加,减少,删除,卸载)

许多Linux使用者安装操作系统时都会遇到这样的困境:如何精确评估和分配各个硬盘分区的容量,如果当初评估不准确,一旦系统分区不够用时可能不得不备份、删除相关数据,甚至被迫重新规划分区并重装操作系统,以满足应用系统的需要。 LVM是Linux环境中对磁盘分区进行管理的一种机制,是建立在硬盘和分区之上、文件系统之下的一个逻辑层,可提高磁盘分区管理的灵活性。RHEL5默认安装的分区格式就是LVM 逻辑卷的格式,需要注意的是/boot分区不能基于LVM创建,必须独立出来。 LVM的配置过程也很简单,并不是很难,为此,我画了一张图文并茂的解析图,解析了LVM创建的整个过程。更详细的理论知识还请参看一些教程或者去Google哦! 实验环境:

首先从空的硬盘sdb上创建两个分区sdb1 1G,sdb2 2G. 为接下来做LVM做准备.

为了后期便于维护管理,记得给分区加上标示,这样即使你不在的情况下,别人看到标示了就不会轻易动这块区域了. LVM的标识是8e,设置完成后记得按w保存 一、创建逻辑卷 将新创建的两个分区/dev/sdb1 /dev/sdb2转化成物理卷,主要是添加LVM属性信息并划分PE存储单元.

创建卷组 vgdata ,并将刚才创建好的两个物理卷加入该卷组.可以看出默认PE大小为4MB,PE是卷组的最小存储单元.可以通过–s参数修改大小。 从物理卷vgdata上面分割500M给新的逻辑卷lvdata1.

使用mkfs.ext4命令在逻辑卷lvdata1上创建ext4文件系统. 将创建好的文件系统/data1挂载到/data1上.(创建好之后,会在/dev/mapper/生成一个软连接名字为”卷组-逻辑卷”)

DELL服务器RAID配置详细教程

DELL服务器RAID配置教程 在启动电脑的时候按CTRL+R 进入RAID 设置见面如下图 名称解释: Disk?Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组 VD(Virtual?Disk):?虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical?Disk):?物理磁盘 HS:Hot?Spare?热备 Mgmt:管理 【一】创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD?Mgmt菜单(可以通过CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create?New?VD”创建新虚拟磁盘 3、在RAID?Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。 4、确认RAID级别以后,按向下方向键,将光标移至Physical?Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic?Settings 的VD?Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD?Size栏,VD?Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD?Mgmt创建(可以参考第13步,会有详细说明)。VD?Name根据需要设置,也可为空。 注:各RAID级别最少需要的硬盘数量,RAID0=1,RAID1=2,RAID5=3,RAID10=4,RAID50=6 5、修改高级设置,选择完VD?Size后,可以按向下方向键,或者Tab键,将光标移至Advanced?Settings 处,按空格键开启(禁用)高级设置。如果开启后(红框处有X标志为开启),可以修改Stripe?Element?Size 大小,以及阵列的Read?Policy与Write?Policy,Initialize处可以选择是否在阵列配置的同时进行初始化。 高级设置默认为关闭(不可修改),如果没有特殊要求,建议不要修改此处的设置。 6、上述的配置确认完成后,按Tab键,将光标移至OK处,按回车,会出现如下的提示,如果是一个全新的阵列,建议进行初始化操作,如果配置阵列的目的是为了恢复之前的数据,则不要进行初始化。按回车确认即可继续。 7、配置完成后,会返回至VD?Mgmt主界面,将光标移至图中Virtual?Disk?0处,按回车。

IBM-ServeRAID 配置方法

ServeRAID MR SAS/SATA Controller WebBIOS CU配置方法 (注:本文适用于ServeRAID MR RAID controller MR-10i/ 10K/ 10M) 一启动WebBIOS CU 1. 添加有ServeRAID MR RAID controller MR-10i/ 10K/ 10M的服务器开机自检时,会有+的提示(类似于): Copyright? LSI Logic Corporation Press + for WebBIOS 此时,请按下组合键+。此时会出现选择RAID卡的界面。 2. 如果服务器上装有多个ServeRAID-MR控制器,请选择需要配置的RAID卡。 3. 选择选项,继续后,会出现WebBIOS CU的界面。 二 WebBIOS CU主界面选项 1. 默认视图 进入WebBIOS CU后,主界面显示如下:

默认界面是逻辑视图界面(左侧选项Logical View),在右侧,上方窗口显示该控制器所连接的物理驱动器(Physical Drivers)的状态信息,下方窗口显示该控制器上已经配置的虚拟驱动器(Virtual Drivers)的状态信息。 可以通过点击左侧逻辑视图(Logical View)或物理视图(Physical View)选项,可以切换右侧窗口显示的连接到该控制器上存储设备的(Logical View)或物理视图(Physical View)。在物理视图(Physical View)界面时,右侧界面中下方窗口显示的信息是该控制器上已经配置的阵列(Array)信息。 2. 视图左侧主要选项说明

Linux LVM 创建、删除、扩展

Linux LVM 创建、删除、扩展 redhat6.2上做LVM 1 先给虚拟机上的RH加一个硬盘。 2 启动RH 3 在终端上输入 [BeiGang@localhost~]$fdisk -l Disk /dev/sdc: 1073 MB, 1073741824 bytes …… Disk /dev/sdc doesn't contain a valid partition table 4 分区1 [BeiGang@localhost~]$fdisk /dev/sdc Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-130, default 1): Using default value 1 Last cylinder, +cylinders or +size{K,M,G} (1-130, default 130): +100M Command (m for help): w The partition table has been altered!

Calling ioctl() to re-read partition table. Syncing disks. [BeiGang@localhost~]$ 5 查看 [BeiGang@localhost~]$fdisk -l Device Boot Start End Blocks Id System /dev/sdc1 1 14 112423+ 83 Linux 6 分区2 [BeiGang@localhost~]$fdisk /dev/sdc n p 2 15 +100M w 7 查看 [BeiGang@localhost~]$fdisk -l Device Boot Start End Blocks Id System /dev/sdc1 1 14 112423+ 83 Linux /dev/sdc2 15 28 112455 83 Linux 8 添加物理卷

lvm存储使用分区

多块硬盘的组合: 硬盘分两种:ide和scsi。 ide硬盘: /dev/hda第一块IDE硬盘 /dev/hdb第二块IDE硬盘 ... /dev/hdn第N块IDE硬盘 scsi硬盘: /dev/sda第一块SCSI硬盘 /dev/sdb第二块SCSI硬盘 ... /dev/sdn第N块SCSI硬盘 硬盘分区: /dev/hda1第一个分区 /dev/hda2第二个分区 ... /dev/hdan第N个分区 分区的三种情况: 一、主分区:一块硬盘只能分四个主分区; 二、扩展分区:将一个主分区拿出来做扩展分区; 三、逻辑分区:在一个扩展分区里再分的分区。 分区表:用来记录有几个分区。在MBR(主引导记录,位于一个磁盘的0柱面,0扇区,0磁道)就是一个磁盘最开始的地方64byte个地方,记录一个分区需要使用16个字节。 光盘外设: /dev/cdrom IDE:

/dev/hd1 /dev/hd2 SCSI: /dev/scd1 /dev/scd2 软盘: /dev/fd1 /dev/fd2 硬盘: /dev/hda/dev/hda1 /dev/sda/dev/sda1 U盘:(默认为scsi硬盘) /dev/sdx (abcdef) /dev/sda /dev/sdb... 分区方法: fdisk /dev/sdb:进入后按命令提示操作进行分区(p:打印分区表,n:新建分区 ->p/e->+10G分配分区大小)。 格式化: 分区后,只有格式化了才能使用。 windows系统下,文件系统是FAT32或者NTFS。但是在linux下是ext(后续升级到ext2,ext3)。 相关命令:使用fdisk -l可以查看到系统中连接的外部设备,比如有硬盘,U盘。 使用df -l可以查看已经挂载上的分区。 注:fdisk -T(T要大写)比fdisk多一个显示参数:挂载点。 Disk /dev/sdb doesn't contain a valid partition table:表示第二块SCSI硬盘没有包含一个有效的分区表。 格式化方法:mkfs -t ext4 /dev/sdb1 挂载: 挂载方法:mount /dev/sdb1 /mnt/one(将/dev/sdb1挂载到/mnt/one目录上,相当于访问/mnt/one实际上在访问/dev/sdb1)。

IBM服务器RAID5配置步骤

IBM服务器RAID5配置步骤 1、启动服务器时,根据提示界面选择:CTRL+A进入RAID配置界面, 2、选择“Array configuration utility(阵列配置实用程序)”, 3、选择“Create Array(创建阵列)”, 4、分别按空格键把左边的三个硬盘添加到右击的“Selected Drives(选择驱动器)”中, 5、在“Array Type(阵列类型)”中选择“RAID5”按回车键, 6、在“Array Table(阵列名称)”中输入“RAID5”按回车键, 7、后面的配置全部默认,直接按回车键继续。 2010年9月13日RAID介绍: RAID是冗余磁盘阵列(Redundant Array of Inexpensive Disk)的简称。它是把多个 磁盘组成一个阵列,当作单一磁盘使用。它将数据以分段(striping)的方式分散存储在不 同的磁盘中,通过多个磁盘的同时读写,来减少数据的存取时间,并且可以利用不同的 技术实现数据的冗余,即使有一个磁盘损坏,也可以从其他的磁盘中恢复所有的数据。 简单地说,其好处就是:安全性高、速度快、数据容量大。 磁盘阵列根据其使用的技术不同而划分了等级,称为RAID level,目前公认的标准是RAID 0~RAID 5。其中的level并不代表技术的高低,RAID 5并不高于RAID 4 ,RAID 0并不低于RAID 2 ,至于选择哪一种RAID需视用户的需求而定。下面分别对常用的RAID 0、RAID 1、RAID 5进行简单的介绍。 1、RAID 0 特点:它是将多个磁盘并列起来,成为一个大硬盘。在存取数据时,将数据按磁盘 的个数来进行分段,然后同时将这些数据写进这些盘中。在所有的级别中,RAID 0的 速度是最快的。但没有数据冗余,阵列中任何一个磁盘坏掉,意味着所有数据丢失。 磁盘利用数:n(假设有n个磁盘)。 配置条件:最低两块磁盘,且分区大小尽量相同。 应用领域:对高磁盘容量及高速磁盘存取有特殊需求,而又不计较其高故障率的工作。 当然,如果你正在使用集群,RAID 0 无疑是提高磁盘I/O性能的最好方法,因为在这 种情况下,你就不用担心冗余的问题了。

RAID5安装全步骤

RAID5 说到磁盘阵列(RAID,Redundant Array of Independent Disks),现在几乎成了网管员所必须掌握的一门技术之一,特别是中小型企业,因为磁盘阵列应用非常广泛,它是当前数据备份的主要方案之一。然而,许多网管员只是在各种媒体上看到相关的理论知识介绍,却并没有看到一些实际的磁盘阵列配置方法,所以仍只是一知半解,到自己真正配置时,却无从下手。本文要以一个具体的磁盘阵列配置方法为例向大家介绍磁盘阵列的一些基本配置方法,给出一些关键界面,使各位对磁盘阵列的配置有一个理性认识。当然为了使各位对磁盘阵列有一个较全面的介绍,还是先来简要回顾一下有关磁盘阵列的理论知识,这样可以为实际的配置找到理论依据。 一、磁盘阵列实现方式 磁盘阵列有两种方式可以实现,那就是“软件阵列”与“硬件阵列”。 软件阵列是指通过网络操作系统自身提供的磁盘管理功能将连接的普通SCSI卡上的多块硬盘配置成逻辑盘,组成阵列。如微软的Windows NT/2000 Server/Server 2003和NetVoll的NetWare两种操作系统都可以提供软件阵列功能,其中Windows NT/2000 Server/Server 2003可以提供RAID 0、RAID 1、RAID 5;NetWare操作系统可以实现RAID 1功能。软件阵列可以提供数据冗余功能,但是磁盘子系统的性能会有所降低,有的降代还比较大,达30%左右。 硬件阵列是使用专门的磁盘阵列卡来实现的,这就是本文要介绍的对象。现在的非入门级服务器几乎都提供磁盘阵列卡,不管是集成在主板上或非集成的都能轻松实现阵列功能。硬件阵列能够提供在线扩容、动态修改阵列级别、自动数据恢复、驱动器漫游、超高速缓冲等功能。它能提供性能、数据保护、可靠性、可用性和可管理性的解决方案。磁盘阵列卡拥有一个专门的处理器,如Intel的I960芯片,HPT370A/372 、Silicon Image SIL3112A等,还拥有专门的存贮器,用于高速缓冲数据。这样一来,服务器对磁盘的操作就直接通过磁盘阵列卡来进行处理,因此不需要大量的CPU及系统内存资源,不会降低磁盘子系统的性能。阵列卡专用的处理单元来进行操作,它的性能要远远高于常规非阵列硬盘,并且更安全更稳定。 二、几种磁盘阵列技术 RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。 RAID 0是无数据冗余的存储空间条带化,具有成本低、读写性能极高、存储空间利用率高等特点,适用于音、视频信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。这种方式其实没有冗余功能,没有安全保护,只是提高了磁盘读写性能和整个服务器的磁盘容量。一般只适用磁盘数较少、磁盘容易比较紧缺的应用环境中,如果在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。 RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。

linux LVM的创建和管理

Linux LVM的创建和管理 概述: LVM是Logical Volume Manager(逻辑卷管理器)的简写,它为主机提供了更高层次的磁盘存储管理能力。LVM可以帮助系统管理员为应用与用户方便地分配存储空间。在LVM管理下的逻辑卷可以按需改变大小或添加移除。另外,LVM可以为所管理的逻辑卷提供定制的命名标识。因此,使用LVM主要是方便了对存储系统的管理,增加了系统的扩展性。 目前LVM在Linux下有两个版本,分别是LVM1和LVM2,LVM2不仅仅是Linux逻辑卷管理在版本与功能上的升级,而且是架构在一个新的内核存储子系统(DM,device-mapper)之上的。这个存储子系统提供了一个轻量级的、可扩展的卷管理设施。除了在原有LVM卷管理功能的基础上,Linux的逻辑卷管理将会为用户提供更多的存储管理方案,如镜像、加密卷、多路径技术。所以在本节将以LVM2为例来详细介绍LVM的创建与管理。 LVM相关概念和术语 LVM是建立在磁盘分区和文件系统之间的一个逻辑层,来为文件系统屏蔽下层磁盘分区布局,提供一个逻辑的盘卷,再在盘卷上来建立文件系统。LVM的结构如图1如示: 图1 LVM结构图 在上面的LVM结构图中,涉及到了很多LVM的相关术语,那么关于这些术语的详细说明如下: 物理卷(physical volume,PV) 物理卷就是指硬盘分区,也可以是整个硬盘或已创建的软RAID,是LVM的基本存储设备,与普通物理存储介质的区别是该设备包含有LVM相关的管理参数。 卷组(volume group,VG)

卷组是由一个或多个物理卷所组成的存储池,在卷组上能创建一个或多个“LVM分区”(逻辑卷)。 逻辑卷(logical volume,LV) LVM的逻辑卷类似于非LVM系统中的硬盘分区,它建立在卷组之上,是一个标准的块设备,在逻辑卷之上可以建立文件系统。可以做这样一个设想来理解以上三者的关系:如果把PV 比做地球的一个板块,VG则是一个地球,因为地球是由多个板块组成的,那么在地球上划分一个区域并标记为亚洲,则亚洲就相当于一个LV。 物理块(physical extent,PE) 物理卷以大小相等的物理块为存储的基本单位,同时也是LVM寻址的最小单元。 逻辑块(logical extent,LE) 逻辑卷以大小相等的逻辑块为存储的基本单位,在同一个卷组中,LE的大小和PE是相等的,并且一一对应。 卷组描述区域(VolumeGroup Descriptor Area,VGDA) 和磁盘将包含分区信息的元数据保存在位于分区的起始位置的分区表中一样,逻辑卷以及卷组相关的元数据也是保存在位于物理卷的VGDA中。VGDA包括以下内容: PV描述符、VG描述符、LV描述符、和一些PE描述符。系统启动LVM时激活VG,并将VGDA 加载至内存,来识别LV的实际物理存储位置。当系统进行I/O操作时,就会根据VGDA建立的映射机制来访问实际的物理位置。 创建逻辑卷 创建逻辑卷通常包括如下步骤: ?创建分区 ? ?创建物理卷 ? ?创建卷组 ? ?激活卷组 ? ?创建逻辑卷 ? ?创建文件系统 下面将通过一个具体的实例来详细介绍创建逻辑卷的整个过程。

LVM的创建、增容和减容操作

简化: fdisk -l lvdisplay pvcreate /dev/sdd fdisk -l vgextend VolGroup00 /dev/sdd lvextend -l +100%FREE /dev/mapper/VolGroup00-LogVol00(或者用lvresize –l +Pe的个数/dev/mapper/VolGroup00-LogVol00) resize2fs /dev/mapper/VolGroup00-LogVol00(立即生效) df -h lvdisplay reboot 一、2块新硬盘创建分区并更改为LVM fdisk /dev/sdb Command (m for help):m Command action a toggle a bootable flag b edit bsd disklabel c toggle the dos compatibility flag d delet e a partition l list known partition types m print this menu n add a new partition o create a new empty DOS partition table p print the partition table q quit without saving changes s create a new empty Sun disklabel t change a partition's system id u change display/entry units v verify the partition table w write table to disk and exit x extra functionality (experts only) Command (m for help): p Disk /dev/sdb: 53.6 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System Command (m for help): n Command action e extended

相关文档