Wyszukiwanie w witrynie

Jak zsynchronizować konfigurację klastra i zweryfikować konfigurację przełączania awaryjnego w węzłach — część 4


Witam państwa. Przede wszystkim przepraszam za opóźnienie ostatniej części tej serii klastrów. Zabierzmy się do pracy, nie zwlekając dłużej.

Ponieważ wielu z Was ukończyło już wszystkie trzy poprzednie części, przedstawię Wam, co udało nam się dotychczas zrobić. Teraz mamy już wystarczającą wiedzę, aby zainstalować i skonfigurować pakiety klastrowe dla dwóch węzłów oraz umożliwić ogrodzenie i przełączanie awaryjne w środowisku klastrowym.

Jeśli nie pamiętasz, możesz odesłać moje poprzednie części, ponieważ opublikowanie ostatniej części zajęło trochę więcej czasu.

Wprowadzenie do klastrowania w systemie Linux oraz zalety i wady klastrowania – część 1

Jak zainstalować i skonfigurować klaster z dwoma węzłami w systemie Linux — część 2

Ogrodzenie i dodanie przełączania awaryjnego do klastra – część 3

Zaczniemy od dodania zasobów do klastra. W takim przypadku możemy dodać system plików lub usługę internetową, zgodnie z Twoimi potrzebami. Teraz mam partycję /dev/sda3 zamontowaną na /x01, którą chcę dodać jako zasób systemu plików.

1. Używam poniższego polecenia, aby dodać system plików jako zasób:

ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3

Dodatkowo, jeśli chcesz również dodać usługę, możesz skorzystać z poniższej metodologii. Wydaj następujące polecenie.

ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1

Możesz to sprawdzić przeglądając plik cluster.conf tak jak to zrobiliśmy w poprzednich lekcjach.

2. Teraz wprowadź następujący wpis w pliku cluster.conf, aby dodać znacznik referencyjny do usługi.

<fs ref="my_fs"/>

3. Wszystko gotowe. Nie, zobaczymy, jak możemy zsynchronizować skonfigurowane przez nas konfiguracje w klastrze pomiędzy 2 posiadanymi węzłami. Następujące polecenie wykona niezbędne czynności.

ccs -h 172.16.1.250 --sync --activate

Uwaga: wprowadź hasła, które ustawiliśmy dla ricci na wczesnych etapach instalacji pakietów.

Możesz zweryfikować swoje konfiguracje za pomocą poniższego polecenia.

ccs -h 172.16.1.250 --checkconf

4. Teraz czas zacząć wszystko od nowa. Możesz użyć jednego z poniższych poleceń, jak wolisz.

Aby uruchomić tylko jeden węzeł użyj polecenia z odpowiednim adresem IP.

ccs -h 172.16.1.222 start

Lub jeśli chcesz uruchomić wszystkie węzły, użyj opcji --startall w następujący sposób.

ccs -h 172.16.1.250 –startall

Jeśli chcesz zatrzymać klaster, możesz użyć stop lub --stopall.

W scenariuszu, w którym chcesz uruchomić klaster bez włączania zasobów (zasoby zostaną automatycznie włączone po uruchomieniu klastra), na przykład w sytuacji, w której celowo wyłączyłeś zasoby w określonym węźle, aby wyłączyć pętle ogrodzenia, możesz nie chcę włączać tych zasobów podczas uruchamiania klastra.

W tym celu możesz użyć poniższego polecenia, które uruchamia klaster, ale nie włącza zasobów.

ccs -h 172.16.1.250 --startall --noenable 

5. Po uruchomieniu klastra możesz wyświetlić statystyki, wydając polecenie clustat.

clustat

Powyższe dane wyjściowe wskazują, że w klastrze znajdują się dwa węzły i oba obecnie działają.

6. Jak pamiętasz, w naszych poprzednich lekcjach dodaliśmy mechanizm przełączania awaryjnego. Chcesz sprawdzić, czy to działa? Tak to się robi. Wymuś zamknięcie jednego węzła i poszukaj statystyk klastra za pomocą polecenia clustat, aby poznać wyniki przełączania awaryjnego.

Zamknąłem mój node02server(172.16.1.223) za pomocą polecenia shutdown -h now. Następnie wykonano polecenie clustat z mojego cluster_server(172.16.1.250).

Powyższe dane wyjściowe wyjaśniają, że węzeł 1 jest w trybie online, podczas gdy węzeł 2 przeszedł w tryb offline po jego zamknięciu. Jednak usługa i udostępniony przez nas system plików są nadal online, co możesz sprawdzić, sprawdzając to na node01, który jest online.

df -h /x01

Zapoznaj się z plikiem cluster.conf z całym zestawem konfiguracyjnym odpowiednim dla naszej konfiguracji używanej w tecmint.

<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
        <fence_daemon post_join_delay="10"/>
        <clusternodes>
                <clusternode name="172.16.1.222" nodeid="1">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="172.16.1.223" nodeid="2">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_virt" name="tecmintfence"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
                                <failoverdomainnode name="172.16.1.222" priority="1"/>
                                <failoverdomainnode name="172.16.1.223" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
                </resources>
                <service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
                <fs ref="my_fs"/>
       </rm>
</cluster>

Mam nadzieję, że spodoba Ci się cała seria lekcji o grupowaniu. Bądź w kontakcie z tecmint, aby codziennie otrzymywać więcej przydatnych przewodników i nie krępuj się komentować swoich pomysłów i zapytań.