追加したのはTOSHIBA DT01ACA300です
HGSTしか買ったことがなかったのですが、中身はHGSTとの事だったのでこれにしてみました
ちなみにHGSTと同じく hdparm -H /dev/sda で温度の取得ができました
現在の構成がDeskstar 7K1000.Dx2(RAID1)とDeskstar 7K1000(テンポラリ)
のような形でRAID1のストレージと単独のHDDを別々にマウントして使用していましたが
変更後はDT01ACA300x2(RAID1)とDeskstar 7K1000.Dx2(RAID1)を
LVMでひとつのストレージとしてまとめるようにしたいと思っています
MicroserverはHDDが4台入るのですが3台は使用中なのでとりあえず1台追加して縮退状態でアレイを構築
データ移行後にテンポラリで使用しているHDDを抜いて、差し替えることにします
縮退状態からのRAID作成
・サーバー設定メモ/mdadmのRAID再構築 - トヤヲ.ネット
RAID、LVM作成時の注意点
・LVM on RAID するときの注意点 | Green Rabbit
PEのサイズ
・黒ぶちメガネのblog » Blog Archiv » partedでパーティッション作成してLVMを作ってみた
LVMの拡張
・Pantora Networks » 3章 LVM操作 応用編
まず追加したディスク全体を使用して縮退状態でRAID1を作成
# mdadm --create /dev/md0 --metadata 1.0 --level=raid1 --raid-devices=2 /dev/sda missing mdadm: array /dev/md0 started.
/dev/md0で作成されていることを確認 (md1は既存のRAID)
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda[0]
2930266448 blocks super 1.0 [2/1] [U_]
md1 : active raid1 sdd1[0] sdc1[1]
976760400 blocks super 1.2 [2/2] [UU]
unused devices:
/etc/mdadm.conf に次のコマンドの結果を書き込んでおくと起動時に指定した名前でデバイスが作成される
# mdadm --detail --scan | grep /dev/md0 ARRAY /dev/md0 metadata=1.0 name=rabbithole:0 UUID=afb3398d:2dcfc178:37c00744:c4f0c767
LVM関係のコマンドをインストール
$ sudo emerge -av lvm2
作成したRAIDアレイにPVを作成します
# pvcreate --metadatatype 2 --dataalignment 64K /dev/md0 Physical volume "/dev/md0" successfully created # pvdisplay "/dev/md0" is a new physical volume of "2.73 TiB" --- NEW Physical volume --- PV Name /dev/md0 VG Name PV Size 2.73 TiB Allocatable NO PE Size 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID 9CtZqS-GQqN-wKy1-da2G-sfdg-nPBy-hIuMKw
PEを指定してVGを作成します
PEは8TBまで拡張できるように128MBにしました
# vgcreate -s 128m vg0 /dev/md0
Volume group "vg0" successfully created
# vgdisplay -v
Finding all volume groups
Finding volume group "vg0"
--- Volume group ---
VG Name vg0
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 2.73 TiB
PE Size 128.00 MiB
Total PE 22356
Alloc PE / Size 0 / 0
Free PE / Size 22356 / 2.73 TiB
VG UUID u6MTky-7Fw1-hulq-9bvF-2xg3-bt3f-icPNXL
--- Physical volumes ---
PV Name /dev/md0
PV UUID 9CtZqS-GQqN-wKy1-da2G-sfdg-nPBy-hIuMKw
PV Status allocatable
Total PE / Free PE 22356 / 22356
VGからLVを作成
とりあえず2TBにしてみた
# lvcreate -L 2T -n lv0 vg0
Logical volume "lv0" created
# vgdisplay -v
Finding all volume groups
Finding volume group "vg0"
--- Volume group ---
VG Name vg0
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 2
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 2.73 TiB
PE Size 128.00 MiB
Total PE 22356
Alloc PE / Size 16384 / 2.00 TiB
Free PE / Size 5972 / 746.50 GiB
VG UUID u6MTky-7Fw1-hulq-9bvF-2xg3-bt3f-icPNXL
--- Logical volume ---
LV Path /dev/vg0/lv0
LV Name lv0
VG Name vg0
LV UUID l9qC5J-DWOc-NL7T-PnTa-d7oq-b5al-vch9Ys
LV Write Access read/write
LV Creation host, time rabbithole, 2013-06-05 04:50:39 +0900
LV Status available
# open 0
LV Size 2.00 TiB
Current LE 16384
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Physical volumes ---
PV Name /dev/md0
PV UUID 9CtZqS-GQqN-wKy1-da2G-sfdg-nPBy-hIuMKw
PV Status allocatable
Total PE / Free PE 22356 / 5972
フォーマットしてマウント
# mkfs.ext4 /dev/vg0/lv0 mke2fs 1.42.7 (21-Jan-2013) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=0 blocks, Stripe width=0 blocks 134217728 inodes, 536870912 blocks 26843545 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 16384 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000 Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done # mkdir /mnt/lvm # mount -t ext4 -o noatime /dev/vg0/lv0 /mnt/lvm/ # df -h /mnt/lvm/ Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg0-lv0 2.0T 199M 1.9T 1% /mnt/lvm
既存のアレイと取り外したいHDDからデータを移行
# cd /mnt/raid # tar cpf - ./ | (cd /mnt/lvm/ && tar xpfv -) # cd /mnt/hdd # tar cpf - ./ | (cd /mnt/lvm/ && tar xpfv -)
一度電源を落として、新しいHDDに差し替えてから起動
縮退状態のアレイに新規HDDを追加、リビルド状態を確認
# mdadm /dev/md0 -a /dev/sdb
# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdc1[1] sdd1[0]
976760400 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sdb[2] sda[1]
2930266448 blocks super 1.0 [2/1] [_U]
[==>..................] recovery = 10.7% (315106240/2930266448) finish=239.8min speed=181700K/sec
unused devices:
ここまででRAID1上にLVMの領域の作成が終了しました
3TBから2TBだけ切り出して使用しているので試しに500GBほど追加するには以下のようにします
# lvextend -L +500G /dev/vg0/lv0
Extending logical volume lv0 to 2.49 TiB
Logical volume lv0 successfully resized
# vgdisplay -v
Finding all volume groups
Finding volume group "vg0"
--- Volume group ---
VG Name vg0
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 3
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 2.73 TiB
PE Size 128.00 MiB
Total PE 22356
Alloc PE / Size 20384 / 2.49 TiB
Free PE / Size 1972 / 246.50 GiB
VG UUID W8MkGo-vsDe-ffNR-BGSu-RLQJ-mRwP-8k1iVl
--- Logical volume ---
LV Path /dev/vg0/lv0
LV Name lv0
VG Name vg0
LV UUID jN5sM0-HK7X-xpvU-PqiQ-cUD7-SVn1-JEHYwR
LV Write Access read/write
LV Creation host, time rabbithole, 2013-06-07 00:53:53 +0900
LV Status available
# open 1
LV Size 2.49 TiB
Current LE 20384
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Physical volumes ---
PV Name /dev/md0
PV UUID 97qU1x-3lYU-03Dw-9cOq-FdHq-u4Y7-Ew06sU
PV Status allocatable
Total PE / Free PE 22356 / 1972
これでLVM的には大きくなりました
ファイルシステムをLVMの領域に合わせて拡張します
# df -h /mnt/lvm/ Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg0-lv0 2.0T 1.1T 825G 57% /mnt/lvm # resize2fs /dev/vg0/lv0 resize2fs 1.42.7 (21-Jan-2013) Filesystem at /dev/vg0/lv0 is mounted on /mnt/lvm; on-line resizing required old_desc_blocks = 128, new_desc_blocks = 160 The filesystem on /dev/vg0/lv0 is now 667942912 blocks long. # df -h /mnt/lvm/ Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg0-lv0 2.5T 1.1T 1.3T 46% /mnt/lvm
これで拡張の仕方もOKです
次は既存のアレイを一度解体、再構築してLVMのメンバとして追加してみます
パーティション切って使っていたのでsdd1とかになっています
(パーティションを切る必要がないので切らずに使うようにします)
# mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sat Jul 21 19:39:57 2012
Raid Level : raid1
Array Size : 976760400 (931.51 GiB 1000.20 GB)
Used Dev Size : 976760400 (931.51 GiB 1000.20 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Fri Jun 7 20:19:17 2013
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : rabbithole:1 (local to host rabbithole)
UUID : 397bdef9:d9e30277:48fb1e60:2ee74aa9
Events : 19
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 33 1 active sync /dev/sdc1
まずアレイを停止して、スーパーブロックも削除
# mdadm -S /dev/md1
mdadm: stopped /dev/md1
# mdadm --zero-superblock /dev/sdd1
# mdadm --zero-superblock /dev/sdc1
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda[0] sdb[2]
2930266448 blocks super 1.0 [2/2] [UU]
unused devices:
fdiskでパーティションを削除
# fdisk /dev/sdd # fdisk /dev/sdc
同じようにRAID1でアレイを作成
# mdadm --create /dev/md1 --metadata 1.0 --level=raid1 --raid-devices=2 /dev/sdc /dev/sdd
mdadm: array /dev/md1 started.
# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdd[1] sdc[0]
976762448 blocks super 1.0 [2/2] [UU]
[>....................] resync = 0.0% (403968/976762448) finish=161.1min speed=100992K/sec
md0 : active raid1 sda[0] sdb[2]
2930266448 blocks super 1.0 [2/2] [UU]
unused devices:
/etc/mdadm.conf の/dev/md1を新しい値に変更しておく
# mdadm --detail --scan | grep /dev/md1 ARRAY /dev/md1 metadata=1.0 name=rabbithole:1 UUID=3735b68e:93098abd:cb8f64f5:0fd212d4
作成したアレイにPVを作成
# pvcreate --metadatatype 2 --dataalignment 64K /dev/md1
Physical volume "/dev/md1" successfully created
# pvdisplay -v
Scanning for physical volume names
--- Physical volume ---
PV Name /dev/md0
VG Name vg0
PV Size 2.73 TiB / not usable 20.33 MiB
Allocatable yes
PE Size 128.00 MiB
Total PE 22356
Free PE 1972
Allocated PE 20384
PV UUID 97qU1x-3lYU-03Dw-9cOq-FdHq-u4Y7-Ew06sU
"/dev/md1" is a new physical volume of "931.51 GiB"
--- NEW Physical volume ---
PV Name /dev/md1
VG Name
PV Size 931.51 GiB
Allocatable NO
PE Size 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID wrcffi-LQoQ-ctKc-ewxQ-X0Qg-JX3Y-AsqoRX
作成したPVをVGに追加
# vgextend vg0 /dev/md1
Volume group "vg0" successfully extended
# vgdisplay -v
Finding all volume groups
Finding volume group "vg0"
--- Volume group ---
VG Name vg0
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 3.64 TiB
PE Size 128.00 MiB
Total PE 29808
Alloc PE / Size 20384 / 2.49 TiB
Free PE / Size 9424 / 1.15 TiB
VG UUID W8MkGo-vsDe-ffNR-BGSu-RLQJ-mRwP-8k1iVl
--- Logical volume ---
LV Path /dev/vg0/lv0
LV Name lv0
VG Name vg0
LV UUID jN5sM0-HK7X-xpvU-PqiQ-cUD7-SVn1-JEHYwR
LV Write Access read/write
LV Creation host, time rabbithole, 2013-06-07 00:53:53 +0900
LV Status available
# open 1
LV Size 2.49 TiB
Current LE 20384
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Physical volumes ---
PV Name /dev/md0
PV UUID 97qU1x-3lYU-03Dw-9cOq-FdHq-u4Y7-Ew06sU
PV Status allocatable
Total PE / Free PE 22356 / 1972
PV Name /dev/md1
PV UUID wrcffi-LQoQ-ctKc-ewxQ-X0Qg-JX3Y-AsqoRX
PV Status allocatable
Total PE / Free PE 7452 / 7452
以上で作業は終了
これで必要に応じて動的に領域を拡張できるようになりました
0 件のコメント:
コメントを投稿