Wyszukiwanie w witrynie

Skonfiguruj RAID poziomu 6 (przekładanie z podwójną rozproszoną parzystością) w systemie Linux — część 5


RAID 6 to ulepszona wersja RAID 5, w której ma dwie rozproszone parzystości, co zapewnia odporność na awarie nawet w przypadku awarii dwóch dysków. System o znaczeniu krytycznym nadal działa w przypadku awarii dwóch równoczesnych dysków. Jest podobny do RAID 5, ale zapewnia większą niezawodność, ponieważ wykorzystuje jeden dysk więcej do zapewnienia parzystości.

W naszym wcześniejszym artykule widzieliśmy rozproszoną parzystość w RAID 5, ale w tym artykule zobaczymy RAID 6 z podwójną rozproszoną parzystością. Nie oczekuj większej wydajności niż jakakolwiek inna macierz RAID, jeśli tak, musimy również zainstalować dedykowany kontroler RAID. Tutaj, w RAID 6, nawet jeśli stracimy 2 dyski, możemy odzyskać dane, wymieniając dysk zapasowy i budując go z parzystości.

Aby skonfigurować RAID 6, wymagane są co najmniej 4 liczba dysków w zestawie. RAID 6 ma wiele dysków, nawet w pewnym zestawie, może mieć kilka dysków, podczas odczytu będzie czytać ze wszystkich dysków, więc odczyt będzie szybszy, a zapis będzie słaby, ponieważ musi rozłóż na wielu dyskach.

Teraz wielu z nas dochodzi do wniosku, dlaczego powinniśmy używać RAID 6, skoro nie działa on jak żaden inny RAID. Hmm… ci, którzy zadają to pytanie, muszą wiedzieć, że jeśli potrzebują wysokiej odporności na awarie, wybierz RAID 6. W każdym wyższym środowisku z dużą dostępnością bazy danych używają RAID 6, ponieważ baza danych jest najważniejsza i muszą być bezpieczne za wszelką cenę, mogą być również przydatne w środowiskach przesyłania strumieniowego wideo.

Plusy i minusy RAID 6

  1. Wydajność jest dobra.
  2. RAID 6 jest kosztowny, ponieważ wymaga użycia dwóch niezależnych dysków do funkcji parzystości.
  3. Utraci pojemność dwóch dysków w celu wykorzystania informacji o parzystości (podwójna parzystość).
  4. Brak utraty danych, nawet w przypadku awarii dwóch dysków. Możemy odbudować z parzystości po wymianie uszkodzonego dysku.
  5. Odczyt będzie lepszy niż RAID 5, ponieważ odczytuje z wielu dysków, ale wydajność zapisu będzie bardzo słaba bez dedykowanego kontrolera RAID.

Wymagania

Do utworzenia RAID 6 wymagane są co najmniej 4 dyski. Jeśli chcesz dodać więcej dysków, możesz, ale musisz mieć dedykowany kontroler RAID. W programowym RAID lepszej wydajności nie uzyskamy w RAID 6. Potrzebujemy więc fizycznego kontrolera RAID.

Osobom, które nie mają doświadczenia w konfiguracji RAID, zalecamy zapoznanie się z poniższymi artykułami dotyczącymi RAID.

  1. Podstawowe pojęcia dotyczące RAID w systemie Linux – część 1
  2. Tworzenie oprogramowania RAID 0 (Stripe) w systemie Linux – część 2
  3. Konfigurowanie RAID 1 (dublowanie) w systemie Linux – część 3
Konfiguracja mojego serwera
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Ten artykuł jest Częścią 5 z serii 9 samouczków dotyczących RAID. Tutaj zobaczymy, jak możemy utworzyć i skonfigurować oprogramowanie RAID 6 lub Striping z podwójną rozproszoną parzystością w Systemy lub serwery Linux korzystające z czterech dysków 20 GB o nazwach /dev/sdb, /dev/sdc, /dev/sdd i /dev/sde.

Krok 1: Instalowanie narzędzia mdadm i sprawdzanie dysków

1. Jeśli śledzisz nasze dwa ostatnie artykuły dotyczące Raidu (część 2 i Part 3), w których już pokazaliśmy, jak zainstaluj narzędzie „mdadm”. Jeśli jesteś nowy w tym artykule, pozwól, że wyjaśnię, że „mdadm” to narzędzie do tworzenia Raidów i zarządzania nimi w systemach Linux. Zainstalujmy to narzędzie za pomocą następującego polecenia zgodnie z dystrybucją Linuksa.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

2. Po zainstalowaniu narzędzia nadszedł czas, aby zweryfikować podłączone cztery dyski, których będziemy używać do tworzenia rajdu, za pomocą następującego polecenia „fdisk”.

fdisk -l | grep sd

3. Przed utworzeniem dysków RAID zawsze sprawdź nasze dyski, czy na dyskach nie utworzono już RAID.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Uwaga: Powyższy obraz przedstawia, że nie wykryto żadnego superbloku ani nie zdefiniowano macierzy RAID na czterech dyskach. Możemy przejść dalej i rozpocząć tworzenie RAID 6.

Krok 2: Partycjonowanie dysku dla RAID 6

4. Teraz utwórz partycje dla raidu na '/dev/sdb', '/dev/sdc', '/dev/ sdd” i „/dev/sde” za pomocą polecenia fdisk. Tutaj pokażemy jak utworzyć partycję na dysku sdb i później te same kroki należy wykonać dla pozostałych dysków.

Utwórz partycję /dev/sdb
fdisk /dev/sdb

Aby utworzyć partycję, postępuj zgodnie z instrukcjami pokazanymi poniżej.

  1. Naciśnij „n”, aby utworzyć nową partycję.
  2. Następnie wybierz „P” dla partycji podstawowej.
  3. Następnie wybierz numer partycji jako 1.
  4. Zdefiniuj wartość domyślną, naciskając dwukrotnie klawisz Enter.
  5. Następnie naciśnij „P”, aby wydrukować zdefiniowaną partycję.
  6. Naciśnij „L”, aby wyświetlić listę wszystkich dostępnych typów.
  7. Wpisz „t”, aby wybrać partycje.
  8. Wybierz „fd” dla automatycznego raidu w systemie Linux i naciśnij Enter, aby zastosować.
  9. Następnie ponownie użyj „P”, aby wydrukować wprowadzone przez nas zmiany.
  10. Użyj „w”, aby zapisać zmiany.

Utwórz partycję /dev/sdb
fdisk /dev/sdc

Utwórz partycję /dev/sdd
fdisk /dev/sdd

Utwórz partycję /dev/sde
fdisk /dev/sde

5. Po utworzeniu partycji dobrym zwyczajem jest sprawdzanie dysków pod kątem obecności superbloków. Jeśli superbloki nie istnieją, możemy przystąpić do tworzenia nowej konfiguracji RAID.

mdadm -E /dev/sd[b-e]1


or

mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Krok 3: Tworzenie urządzenia md (RAID)

6. Teraz nadszedł czas, aby utworzyć urządzenie Raid „md0” (tj. /dev/md0) i zastosować poziom RAID do wszystkich nowo utworzonych partycji i potwierdź nalot za pomocą następujących poleceń.

mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
cat /proc/mdstat

7. Możesz także sprawdzić bieżący proces nalotu za pomocą polecenia watch, jak pokazano na zrzucie ekranu poniżej.

watch -n1 cat /proc/mdstat

8. Sprawdź urządzenia RAID za pomocą następującego polecenia.

mdadm -E /dev/sd[b-e]1

Uwaga:: Powyższe polecenie wyświetli informacje o czterech dyskach, które są dość długie, więc nie można opublikować tutaj wyników ani zrzutów ekranu.

9. Następnie sprawdź macierz RAID, aby potwierdzić, że rozpoczęła się ponowna synchronizacja.

mdadm --detail /dev/md0

Krok 4: Tworzenie systemu plików na urządzeniu Raid

10. Utwórz system plików używając ext4 dla „/dev/md0” i zamontuj go w /mnt/raid6. Tutaj użyliśmy ext4, ale możesz użyć dowolnego typu systemu plików według własnego wyboru.

mkfs.ext4 /dev/md0

11. Zamontuj utworzony system plików w /mnt/raid6 i sprawdź pliki w punkcie montowania, zobaczymy katalog Lost+found.

mkdir /mnt/raid6
mount /dev/md0 /mnt/raid6/
ls -l /mnt/raid6/

12. Utwórz kilka plików w punkcie podłączenia i dołącz tekst do dowolnego pliku, aby zweryfikować zawartość.

touch /mnt/raid6/raid6_test.txt
ls -l /mnt/raid6/
echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
cat /mnt/raid6/raid6_test.txt

13. Dodaj wpis w /etc/fstab, aby automatycznie zamontować urządzenie przy uruchomieniu systemu i dołącz poniższy wpis. Punkt podłączenia może się różnić w zależności od środowiska.

vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Następnie wykonaj polecenie „mount -a”, aby sprawdzić, czy we wpisie fstab nie wystąpił błąd.

mount -av

Krok 5: Zapisz konfigurację RAID 6

15. Pamiętaj, że domyślnie RAID nie ma pliku konfiguracyjnego. Musimy go zapisać ręcznie, używając poniższego polecenia, a następnie sprawdzić status urządzenia „/dev/md0”.

mdadm --detail --scan --verbose >> /etc/mdadm.conf
mdadm --detail /dev/md0

Krok 6: Dodawanie dysków zapasowych

16. Teraz ma 4 dyski i dostępne są dwie informacje o parzystości. W niektórych przypadkach, jeśli którykolwiek z dysków ulegnie awarii, możemy uzyskać dane, ponieważ w RAID 6 występuje podwójna parzystość.

Może się zdarzyć, że w przypadku awarii drugiego dysku będziemy mogli dodać nowy, zanim stracimy trzeci dysk. Możliwe jest dodanie dysku zapasowego podczas tworzenia naszego zestawu RAID, jednak nie zdefiniowałem dysku zapasowego podczas tworzenia naszego zestawu RAID. Możemy jednak dodać dysk zapasowy w przypadku awarii dysku lub podczas tworzenia zestawu RAID. Teraz stworzyliśmy już zestaw RAID, teraz pozwólcie, że dodam zapasowy dysk w celach demonstracyjnych.

Dla celów demonstracyjnych podłączyłem nowy dysk HDD (tzn. /dev/sdf), zweryfikujmy podłączony dysk.

ls -l /dev/ | grep sd

17. Teraz ponownie potwierdź, że nowo podłączony dysk dla dowolnego RAID jest już skonfigurowany lub nie używaj tego samego polecenia mdadm.

mdadm --examine /dev/sdf

Uwaga: Jak zwykle, tak jak wcześniej utworzyliśmy partycje dla czterech dysków, podobnie musimy utworzyć nową partycję na nowo podłączonym dysku za pomocą fdisk< polecenie.

fdisk /dev/sdf

18. Ponownie po utworzeniu nowej partycji na /dev/sdf potwierdź nalot na partycję, dołącz zapasowy dysk do /dev/md0 dokonaj nalotu na urządzenie i zweryfikuj dodane urządzenie.

mdadm --examine /dev/sdf
mdadm --examine /dev/sdf1
mdadm --add /dev/md0 /dev/sdf1
mdadm --detail /dev/md0

Krok 7: Sprawdź tolerancję błędów Raid 6

19. Teraz sprawdźmy, czy dysk zapasowy działa automatycznie, jeśli któryś z dysków w naszej macierzy ulegnie awarii. Do testów osobiście oznaczyłem, że jeden z dysków jest uszkodzony.

Tutaj oznaczymy dysk /dev/sdd1 jako uszkodzony.

mdadm --manage --fail /dev/md0 /dev/sdd1

20. Pozwól mi teraz uzyskać szczegółowe informacje na temat zestawu RAID i sprawdzić, czy nasz zapasowy zaczął się synchronizować.

mdadm --detail /dev/md0

Hurra! Tutaj widzimy, że zapasowy został aktywowany i rozpoczął proces odbudowy. Na dole widać uszkodzony dysk /dev/sdd1 wymieniony jako uszkodzony. Możemy monitorować proces kompilacji za pomocą następującego polecenia.

cat /proc/mdstat

Wniosek:

Tutaj widzieliśmy, jak skonfigurować RAID 6 przy użyciu czterech dysków. Ten poziom RAID jest jedną z kosztownych konfiguracji o wysokiej redundancji. W kolejnych artykułach zobaczymy, jak skonfigurować zagnieżdżoną macierz RAID 10 i wiele więcej. Do tego czasu pozostań w kontakcie z TECMINT.