RAID + LVM podczas instalacji Debiana

Witam,

 

mam pytanie odnośnie tworzenia RAID i LVM podczas instalacji Debiana.

 

Mam 4 dyski

 

500GB - system - bez RAID LVM itp tylko partycje

3TB__ tutaj chcę programowy RAID1 i 2 partycje 1TB i 2TB z LVM

3TB/

3TB tutaj mało ważne dane bez RAID i LVM. 2 partycje 1TB i 2TB

 

Teraz moje pytanie.

 

Najpierw tworze RAID1 i później LVM czy odwrotnie?

Tzn. tworze partycje dla RAID 3TB, następnie tworzę RAID1 z tych partycji 3TB.

Teraz wybieram tą RAID1 3TB i ustawiam ją jako obszar dla LVM.

 

Następnie tworzę LVM. Volume group o nazwie storage, a później tworze 2 Logical Volume home 2TB i owncloud 1TB.

Na sam koniec ustawiam system plików na ext4 i punkt montowania czyli /home dla home i /home/owncloud dla owncloud.

 

Dobrze czy coś pomotałem?

 

Rozumiem, że ten RAID sam zrobi wszystko na drugim dysku?

Właśnie sobie przypomniałem, że fdisk obsługuję partycje do 2TB…

Tak, tworzysz RAID i na nim wolumeny logiczne LVM, na których potem zakładasz system plików i montujesz.

Tak to się tworzy?

 

parted /dev/sda -> tworzę partycję 3TB
parted /dev/sdb -> tworzę partycję 3TB
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1
pvcreate /dev/md0
vgcreate datavg /dev/md0
vgcreate homevg /dev/md0
lvcreate --name datalv --size 1074G datavg
lvcreate --name homelv --size 1927G homevg
mkfs.ext4 /dev/datavg/datalv
mkfs.ext4 /dev/homevg/homelv

tak

To muszę jeszcze popatrzeć, bo nie mam błędów, a na końcu datalv czy homelv nie istnieje :confused: Ale to pewnie przez pośpiech

jak nie istnieje? jaki masz wynik pvs i lvdisplay?

Bo powinno być

mkfs.ext4 /dev/mapper/datavg-datalv
mkfs.ext4 /dev/mapper/homevg-homelv

Przynajmniej tak Debian sobie to oznacza.

Zrobiłem tak:

parted /dev/sda
mklabel gpt
mkpart primary
ext4
0%
100%
quit
parted /dev/sdb 
mklabel gpt
mkpart primary
ext4
0%
100%
quit
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1
pvcreate /dev/md0 
vgcreate Storage /dev/md0
lvcreate -L 935G Storage -n lvowncloud
lvcreate -l +100%FREE Storage -n lvhome
mkfs.ext4 /dev/mapper/lvowncloud
mkfs.ext4 /dev/mapper/lvhome

Tak chyba będzie git :slight_smile:

 

Tylko mam do Was jeszcze pytanie. Fdisk obsługuje dyski do 2TB, a ja mam dyski 3TB. Jeśli wcześniej stworzę partycję 3TB przez parted i później będę instalował Debiana to podczas instalacji mogę zrobić normalnie LVM? Czy też będzie z tym problem?

Nie musisz tworzyć partycji w fdisku. Zrób tak.

mdadm -Cv /dev/md0 --level=1 -n2 /dev/sda /dev/sdb
pvcreate /dev/md0
vgcreate Storage /dev/md0
lvcreate -L 935G Storage -n lvowncloud
lvcreate -l +100%FREE Storage -n lvhome
mkfs.ext4 /dev/mapper/Storage-lvowncloud
mkfs.ext4 /dev/mapper/Storage-lvhome

Jak coś nie działa, to sprawdzasz LVM poleceniami.

pvs
vgs
lvs

Bardziej szczegółowe.

pvdisplay
vgdisplay
lvdisplay

Zaś RAID.

cat /proc/mdstat

Poszło wszystko ok 

 

Jedynie to było, ale to nie problem. Możliwe, że po starym RAID zostało…

root@witched:~# mdadm -Cv /dev/md0 --level=1 -n2 /dev/sda /dev/sdb
mdadm: /dev/sda appears to be part of a raid array:
    level=raid0 devices=0 ctime=Thu Jan  1 01:00:00 1970
mdadm: partition table exists on /dev/sda but will be lost or
       meaningless after creating array
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdb appears to be part of a raid array:
    level=raid0 devices=0 ctime=Thu Jan  1 01:00:00 1970
mdadm: partition table exists on /dev/sdb but will be lost or
       meaningless after creating array
mdadm: size set to 2930135360K
Continue creating array?
Continue creating array? (y/n) y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

 

Budowa RAID

 

Every 1,0s: cat /proc/mdstat                                                     Thu Apr 16 01:28:52 2015
 
Personalities : [raid1]
md0 : active raid1 sda[0] sdb[1]
      2930135360 blocks super 1.2 [2/2] [UU]
      [>....................]  resync =  2.8% (83955456/2930135360) finish=1959.6min speed=24205K/sec
 
unused devices: <none>

 

 

Jeszcze pytanko w fstab lepiej /dev/mapper/… zamienić na UUID?

 

Całość śmiga jak ta lala

 

root@witched:~/scripts# df -h
System plików                  rozm. użyte dost. %uż. zamont. na
rootfs                           11G  510M  9,6G   5% /
udev                             10M     0   10M   0% /dev
tmpfs                           385M  580K  384M   1% /run
/dev/mapper/witched-lvroot       11G  510M  9,6G   5% /
tmpfs                           5,0M     0  5,0M   0% /run/lock
tmpfs                           2,0G     0  2,0G   0% /run/shm
/dev/sde5                       1,8G   18M  1,7G   2% /boot
/dev/mapper/witched-lvtmp        11G  155M  9,9G   2% /tmp
/dev/mapper/witched-lvusr        20G  669M   19G   4% /usr
/dev/mapper/witched-lvmysql      21G  172M   20G   1% /var/lib/mysql
/dev/mapper/witched-lvlog        20G  238M   19G   2% /var/log
/dev/mapper/witched-lvwww        20G  172M   19G   1% /var/www
/dev/mapper/Storage-lvhome      1,8T  196M  1,7T   1% /home
/dev/mapper/Storage-lvowncloud  921G  200M  874G   1% /home/owncloud
/dev/mapper/Storage2-lvmusic    921G   18G  857G   2% /srv/smb/music
/dev/mapper/Storage2-lvvideos   1,8T  196M  1,7T   1% /srv/smb/videos

Odnoszę wrażenie jakby RAID bez tez partycji chodził jakoś wolniej…