配置配額系統
控制單個用戶,或組在某磁盤上所能占的最大空間大小
配額是基于磁盤分區的,不基于文件
如何基于軟件控制配額:
1、設置分區掛載選項
修改/etc/fstab中掛載選項,在default后加:usrquota 、grpquota
usrquota:控制單個用戶的空間
grpquota:控制組的空間
2、初始化數據庫
quotacheck -cug /home
-c:創建
-u:控制用戶
-g:控制組
3、開啟或取消配額
quotaon、quotaoff
4、編輯配額
edquota
在shell中直接編輯
soft:警告線
hard:強制的紅線,不能超過此大小
選項:
-p USER1 USER2 :參考usre1設置user2的配額
eg:edquota -p user1 user2
setquota usename 4096 5120 40 50 /DIR
設置某目錄下的username用戶的block和inode的soft和hard線
5、報告配額狀態
用戶調查:quota
配額概述:repquota
其它工具:warnquota
RAID:Redundant Array of Inexpensive(Independent) Disks
作用:
提供IO能力
磁盤并行讀寫
提高耐用性
磁盤冗余來實驗
級別:多塊磁盤組織在一起的工作方式不同;無等級之分
RAID實現的方式:(RAID存儲中的塊是chunk)
外接式RAID:通過擴展卡提供適配能力
內接式RAID:主板集成RAID控制器
Software RAID:通過軟件實現
級別:level
RAID-0:0 ,條帶卷 ,strip
讀寫性能提升
可用空間:N*min(S1,S2,…)
無容錯能力
最少磁盤數:2 ,2+
RAID-1:1 ,鏡像卷 ,mirror
讀性能提升,寫性能下降
可用空間:1*min(S1,S2,…)
有容錯能力
最少磁盤數:2 ,2+
RAID-2 … RAID3 :基本淘汰
RAID-4:
把最后一塊盤作校驗盤,用與異或校驗
如:1101
0110
異或1011
上面3個數,兩兩異或都可以得到另一個
損壞一塊磁盤可以通過異或校驗獲得
可用空間:(N-1)*min(S1,S2,…)
最少磁盤數:3 ,3+
RAID-5:代奇偶校驗位的條帶機
讀寫性能提升
在RAID4的基礎上,把校驗塊數據不全放在一塊磁盤上
可用空間:(N-1)*min(S1,S2,…)
有容錯能力:1塊磁盤
最少磁盤數:3 ,3+
RAID-6:
讀寫性能提升
在RAID5的基礎上,校驗塊數據不全放在一塊磁盤上,且同一段數據有2個校驗塊
可用空間:(N-2)*min(S1,S2,…)
有容錯能力:2塊磁盤
最少磁盤數:4 ,4+
RAID7:
可以理解為一個獨立存儲計算機,自身帶有操作系統和管理工具,可以獨立運行,理論上性能最高的RAID
JBOD :Just a Bunch Of Disks
功能:將多塊磁盤的空間合并一個大的連續空間使用可用空間:sum(S1,S2,…)
混合類型:
RAID-10:(先底層1,上層0)
讀寫性能提升
可用空間:N*min(S1,S2,…)/2
有容錯能力:每組鏡像最多可以壞1塊
最少磁盤數:4 ,4+
RAID-01:(先底層0,上層1)
因先復制后切塊,不同0中可能切塊標準不同
RAID-01在損壞一塊盤后,下一塊磁盤的損壞導致數據不可修復的概率遠大于RAID-10
實際生產中使用的很少
例如:
有6塊磁盤分別做RAID-10,RAID-01
RAID-10:在損壞一塊盤后,下一塊磁盤的損壞導致數據不可修復的概率
1/5
RAID-01:在損壞一塊盤后,下一塊磁盤的損壞導致數據不可修復的概率
3/5
RAID-50:(先底層5,上層0)
常用級別:RAID-0, RAID-1, RAID-5, RAID-10,RAID-50, JBOD
RAID的軟件實現方式:
結合內核中的md(multi device)模塊
RAID設備可命名為/dev/md0 、/dev/md1 、/dev/md2 、/dev/md3等等
mdadm:模式化的工具
命令的語法格式:mdadm [mode] <raiddevice> [options] <component-devices>
支持的RAID 級別:LINEAR, RAID0, RAID1, RAID4,RAID5, RAID6, RAID10
模式:
創建:-C
裝配:-A
監控:-F
管理:-f, -r, -a
<raiddevice>:/dev/md#
<component-devices>:任意塊設備
注意:若使用磁盤分區做RAID,磁盤分區類型必須先修改為fd類型,若把整塊磁盤拿來做RAID的無須此操作
-C:創建模式
-n #:使用#個塊設備來創建此RAID
-l #:指明要創建的RAID的級別
-a {yes|no}:自動創建目標RAID 設備的設備文件
-c CHUNK_SIZE:指明塊大小
-x #:指明空閑盤的個數
-D:顯示raid的詳細信息;
mdadm -D /dev/md#
管理模式:
-f:標記指定磁盤為損壞
-a:添加磁盤
-r:移除磁盤
觀察md的狀態:
cat /proc/mdstat
停止md設備:
mdadm -S /dev/md#
補充:
生成配置文件:mdadm –D –s >> /etc/mdadm.conf
停止服務:mdadm –S /dev/md0
激活:mdadm –A –s /dev/md0 激活
刪除raid信息:mdadm –zero-superblock /dev/sdb1
作業:1、創建一個可用空間為1G的RAID1設備,要求其chunk大小為128k,文件系統為ext4,有一個空閑盤,開機可自動掛載至/backup目錄
[root@CentOS6 bin]# fdisk /dev/sda ...... Command (m for help): n First cylinder (11422-26109, default 11422): Using default value 11422 Last cylinder, +cylinders or +size{K,M,G} (11422-26109, default 26109): +1G Command (m for help): t Partition number (1-10): 10 Hex code (type L to list codes): fd Changed system type of partition 10 to fd (Linux raid autodetect) Command (m for help): w ...... [root@CentOS6 bin]# partx -a /dev/sda BLKPG: Device or resource busy error adding partition 1 ....... error adding partition 9 [root@CentOS6 bin]# fdisk /dev/sdb ...... Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-2610, default 1): Using default value 1 Last cylinder, +cylinders or +size{K,M,G} (1-2610, default 2610): +1G Command (m for help): t Selected partition 1 Hex code (type L to list codes): fd Changed system type of partition 1 to fd (Linux raid autodetect) Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. Syncing disks. [root@CentOS6 bin]# mdadm -C /dev/md0 -a yes -c 128 -n 2 -l 1 /dev/sda10 /dev/sdb1 mdadm: /dev/sda10 appears to be part of a raid array: level=raid10 devices=4 ctime=Sat Aug 13 14:00:41 2016 ...... Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. [root@CentOS6 bin]# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Sat Aug 27 19:09:24 2016 Raid Level : raid1 Array Size : 1059200 (1034.38 MiB 1084.62 MB) Used Dev Size : 1059200 (1034.38 MiB 1084.62 MB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Sat Aug 27 19:09:29 2016 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Name : CentOS6.localdomain:0 (local to host CentOS6.localdomain) UUID : 0cef403b:6b7d04e9:6e82624a:3c7cb111 Events : 17 Number Major Minor RaidDevice State 0 8 10 0 active sync /dev/sda10 1 8 17 1 active sync /dev/sdb1 [root@CentOS6 bin]# mkfs.ext4 /dev/md0 mke2fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) ...... [root@CentOS6 ~]# mdadm -Ds /dev/md0 >> /etc/mdadm.conf [root@CentOS6 ~]# blkid /dev/md0 /dev/md0: UUID="1a7cdcab-6799-4773-aa40-7cbc0839281a" TYPE="ext4" [root@CentOS6 bin]# mkdir /backup [root@CentOS6 bin]# vim /etc/fstab
2、創建由三塊硬盤組成的可用空間為2G的RAID5設備,要求其chunk大小為256k,文件系統為ext4,開機可自動掛載至/mydata目錄
[root@CentOS6 ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 3.7G 0 rom /media/CentOS_6.8_Final sda 8:0 0 100G 0 disk ├─sda1 8:1 0 300M 0 part /boot ├─sda2 8:2 0 97.8G 0 part / └─sda3 8:3 0 2G 0 part [SWAP] sdb 8:16 0 10G 0 disk sdc 8:32 0 10G 0 disk sdd 8:48 0 10G 0 disk [root@CentOS6 ~]# fdisk /dev/sdb ...... Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-1305, default 1): Using default value 1 Last cylinder, +cylinders or +size{K,M,G} (1-1305, default 1305): +1G Command (m for help): t Selected partition 1 Hex code (type L to list codes): fd Changed system type of partition 1 to fd (Linux raid autodetect) Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. Syncing disks. [root@CentOS6 ~]# dd if=/dev/sdb of=/dev/sdc bs=1 count=512 512+0 records in 512+0 records out 512 bytes (512 B) copied, 0.0174599 s, 29.3 kB/s [root@CentOS6 ~]# dd if=/dev/sdb of=/dev/sdd bs=1 count=512 512+0 records in 512+0 records out 512 bytes (512 B) copied, 0.0151496 s, 33.8 kB/s [root@CentOS6 ~]# partx -a /dev/sdc [root@CentOS6 ~]# partx -a /dev/sdd [root@CentOS6 ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 3.7G 0 rom /media/CentOS_6.8_Final sda 8:0 0 100G 0 disk ├─sda1 8:1 0 300M 0 part /boot ├─sda2 8:2 0 97.8G 0 part / └─sda3 8:3 0 2G 0 part [SWAP] sdb 8:16 0 10G 0 disk └─sdb1 8:17 0 1G 0 part sdc 8:32 0 10G 0 disk └─sdc1 8:33 0 1G 0 part sdd 8:48 0 10G 0 disk └─sdd1 8:49 0 1G 0 part [root@CentOS6 ~]# mdadm -C /dev/md1 -a yes -n 3 -l 5 -c 256 /dev/sd{b,c,d}1 mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md1 started. [root@CentOS6 ~]# mdadm -D /dev/md1 /dev/md1: Version : 1.2 Creation Time : Sat Aug 27 21:15:20 2016 Raid Level : raid5 Array Size : 2118144 (2.02 GiB 2.17 GB) Used Dev Size : 1059072 (1034.25 MiB 1084.49 MB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sat Aug 27 21:15:29 2016 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 256K Name : CentOS6.localdomain:1 (local to host CentOS6.localdomain) UUID : 4ccfff84:4930166e:1f9cb732:5973cae4 Events : 18 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 3 8 49 2 active sync /dev/sdd1 [root@CentOS6 ~]# mdadm -Ds /dev/md1 >> /etc/mdadm.conf [root@CentOS6 ~]# mkfs.etx4 /dev/md1 [root@CentOS6 ~]# mkdir /mydata [root@CentOS6 ~]# vim /etc/fstab /dev/md1 /mydata ext4 defaults0 0
原創文章,作者:megedugao,如若轉載,請注明出處:http://www.www58058.com/41030