Jak zsynchronizować konfigurację klastra i zweryfikować konfigurację przełączania awaryjnego w węzłach — część 4
Witam państwa. Przede wszystkim przepraszam za opóźnienie ostatniej części tej serii klastrów. Zabierzmy się do pracy, nie zwlekając dłużej.
Ponieważ wielu z Was ukończyło już wszystkie trzy poprzednie części, przedstawię Wam, co udało nam się dotychczas zrobić. Teraz mamy już wystarczającą wiedzę, aby zainstalować i skonfigurować pakiety klastrowe dla dwóch węzłów oraz umożliwić ogrodzenie i przełączanie awaryjne w środowisku klastrowym.
Jeśli nie pamiętasz, możesz odesłać moje poprzednie części, ponieważ opublikowanie ostatniej części zajęło trochę więcej czasu.
Wprowadzenie do klastrowania w systemie Linux oraz zalety i wady klastrowania – część 1
Jak zainstalować i skonfigurować klaster z dwoma węzłami w systemie Linux — część 2
Ogrodzenie i dodanie przełączania awaryjnego do klastra – część 3
Zaczniemy od dodania zasobów do klastra. W takim przypadku możemy dodać system plików lub usługę internetową, zgodnie z Twoimi potrzebami. Teraz mam partycję /dev/sda3 zamontowaną na /x01, którą chcę dodać jako zasób systemu plików.
1. Używam poniższego polecenia, aby dodać system plików jako zasób:
ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3
Dodatkowo, jeśli chcesz również dodać usługę, możesz skorzystać z poniższej metodologii. Wydaj następujące polecenie.
ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1
Możesz to sprawdzić przeglądając plik cluster.conf
tak jak to zrobiliśmy w poprzednich lekcjach.
2. Teraz wprowadź następujący wpis w pliku cluster.conf, aby dodać znacznik referencyjny do usługi.
<fs ref="my_fs"/>
3. Wszystko gotowe. Nie, zobaczymy, jak możemy zsynchronizować skonfigurowane przez nas konfiguracje w klastrze pomiędzy 2 posiadanymi węzłami. Następujące polecenie wykona niezbędne czynności.
ccs -h 172.16.1.250 --sync --activate
Uwaga: wprowadź hasła, które ustawiliśmy dla ricci na wczesnych etapach instalacji pakietów.
Możesz zweryfikować swoje konfiguracje za pomocą poniższego polecenia.
ccs -h 172.16.1.250 --checkconf
4. Teraz czas zacząć wszystko od nowa. Możesz użyć jednego z poniższych poleceń, jak wolisz.
Aby uruchomić tylko jeden węzeł użyj polecenia z odpowiednim adresem IP.
ccs -h 172.16.1.222 start
Lub jeśli chcesz uruchomić wszystkie węzły, użyj opcji --startall
w następujący sposób.
ccs -h 172.16.1.250 –startall
Jeśli chcesz zatrzymać klaster, możesz użyć stop lub --stopall
.
W scenariuszu, w którym chcesz uruchomić klaster bez włączania zasobów (zasoby zostaną automatycznie włączone po uruchomieniu klastra), na przykład w sytuacji, w której celowo wyłączyłeś zasoby w określonym węźle, aby wyłączyć pętle ogrodzenia, możesz nie chcę włączać tych zasobów podczas uruchamiania klastra.
W tym celu możesz użyć poniższego polecenia, które uruchamia klaster, ale nie włącza zasobów.
ccs -h 172.16.1.250 --startall --noenable
5. Po uruchomieniu klastra możesz wyświetlić statystyki, wydając polecenie clustat.
clustat
Powyższe dane wyjściowe wskazują, że w klastrze znajdują się dwa węzły i oba obecnie działają.
6. Jak pamiętasz, w naszych poprzednich lekcjach dodaliśmy mechanizm przełączania awaryjnego. Chcesz sprawdzić, czy to działa? Tak to się robi. Wymuś zamknięcie jednego węzła i poszukaj statystyk klastra za pomocą polecenia clustat, aby poznać wyniki przełączania awaryjnego.
Zamknąłem mój node02server(172.16.1.223) za pomocą polecenia shutdown -h now. Następnie wykonano polecenie clustat z mojego cluster_server(172.16.1.250).
Powyższe dane wyjściowe wyjaśniają, że węzeł 1 jest w trybie online, podczas gdy węzeł 2 przeszedł w tryb offline po jego zamknięciu. Jednak usługa i udostępniony przez nas system plików są nadal online, co możesz sprawdzić, sprawdzając to na node01, który jest online.
df -h /x01
Zapoznaj się z plikiem cluster.conf
z całym zestawem konfiguracyjnym odpowiednim dla naszej konfiguracji używanej w tecmint.
<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
<fence_daemon post_join_delay="10"/>
<clusternodes>
<clusternode name="172.16.1.222" nodeid="1">
<fence>
<method name="Method01">
<device name="tecmintfence"/>
</method>
</fence>
</clusternode>
<clusternode name="172.16.1.223" nodeid="2">
<fence>
<method name="Method01">
<device name="tecmintfence"/>
</method>
</fence>
</clusternode>
</clusternodes>
<cman/>
<fencedevices>
<fencedevice agent="fence_virt" name="tecmintfence"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="172.16.1.222" priority="1"/>
<failoverdomainnode name="172.16.1.223" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
</resources>
<service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
<fs ref="my_fs"/>
</rm>
</cluster>
Mam nadzieję, że spodoba Ci się cała seria lekcji o grupowaniu. Bądź w kontakcie z tecmint, aby codziennie otrzymywać więcej przydatnych przewodników i nie krępuj się komentować swoich pomysłów i zapytań.