Red Hat Cluster Manager: Руководство по установке и администрированию Red Hat Cluster Manager | ||
---|---|---|
Назад | Вперед |
Установив и настроив оборудование кластера, вы можете приступать к установке программного обеспечения кластера. В следующих разделах описывается установка и инициализация кластерного программного обеспечения, проверка конфигурации кластера, настройка протоколирования syslog и использование утилиты cluadmin.
Перед установкой Red Hat Cluster Manager, установите все необходимое обеспечение, как описано в разделе Требования к ядру систему в Главе 2.
Чтобы сохранить существующую базу данных конфигурации кластера при обновлении программного обеспечения кластера, выполните резервное копирование базы данных кластера и остановите работу кластера. Обратитесь к разделу Обновление программного обеспечения кластера в главе 8 за дополнительной информацией.
Чтобы установить Red Hat Cluster Manager, выполните команду rpm --install clumanager-x.rpm, где x имеющаяся версия Red Hat Cluster Manager. Этот пакет по умолчанию устанавливается в Red Hat Enterprise Linux AS, поэтому чаще всего не требуется устанавливать этот пакет вручную.
Для инициализации и запуска кластерного обеспечения, выполните следующие действия:
Отредактируйте файл /etc/sysconfig/rawdevices в каждой кластерной системе и укажите имя неформатированного устройства для основного и резервного кворумных разделов. Обратитесь к разделу Настройка кворумных разделов в Главе 2 и разделу Редактирование файла rawdevices за дополнительной информацией.
Запустите в одной кластерной системе программу /sbin/cluconfig. Если выполняется обновление программного обеспечения кластера, программа запросит подтверждение на использование существующей базы данных кластера. Если база данных кластера не используется, программа удалит её.
Программа запросит следующую информацию, которая будет сохранена в полях раздела member базы данных кластера. Копия этих данных будет записана в файл /etc/cluster.conf:
Специальные файлы неформатированных устройств для основного и резервного кворумных разделов, как указано в файле /etc/sysconfig/rawdevices (например, /dev/raw/raw1 и /dev/raw/raw2)
Сетевые имена кластерной системы, возвращаемые командой hostname
Число пульсирующих соединений (каналов): Ethernet и последовательных
Специальное имя устройства для каждого пульсирующего последовательного соединения (например, /dev/ttyS1)
Сетевое имя, связанное с каждым пульсирующим Ethernet интерфейсом
IP адрес для удаленного управления кластером, также называемый "псевдонимом кластера". Обратитесь к разделу Настройка псевдонима кластера за дополнительной информацией.
Специальные файлы устройств для последовательных портов, к которым подключены переключатели питания (если они используются) (например, /dev/ttyS0) или IP-адрес переключателя питания с сетевым интерфейсом.
Тип переключателя питания (например, RPS10 или None (Отсутствует), если переключатели питания не используются)
Система предложит также включить удаленное наблюдение. Обратитесь к разделу Настройка псевдонима кластера за дополнительной информацией.
Обратитесь к разделу Пример использования утилиты cluconfig за примером работы с этой утилитой.
Завершив инициализацию кластера на одной кластерной системе, выполните в другой системе следующие действия:
Запустите команду /sbin/cluconfig --init=raw_file, где raw_file - название основного кворумного раздела. Этот сценарий по умолчанию будет использовать информацию, определенную для первой кластерной системы. Например:
cluconfig --init=/dev/raw/raw1 |
Проверьте конфигурацию кластера:
Запустите программу cludiskutil с параметром -t в обеих кластерных системах, и убедитесь в том, что кворумные разделы указывают на одно физическое устройство. Обратитесь к разделу Проверка кворумных разделов за дополнительной информацией.
Если вы используете переключатели питания, выполните команду clustonith в каждой кластерной системе для проверки удаленного подключения к переключателям. Обратитесь к разделу Проверка переключателей питания за дополнительной информацией.
По своему усмотрению, настройте протоколирование событий, чтобы сообщения кластера записывались в отдельный файл. Обратитесь к разделу Настройка протоколирования событий syslog за дополнительной информацией.
Запустите кластер, выполнив команду cluster start в каталоге init обеих кластерных систем. Например:
service cluster start |
После инициализации кластера, приступайте к добавлению кластерных служб. Обратитесь к разделу Использование утилиты cluadmin и разделу Настройка службы в главе 4 за дополнительной информацией.
Файл /etc/sysconfig/rawdevices используется для привязки неформатированных устройств к кворумным разделам при загрузке кластерной системы. Одним из этапов установки программного обеспечения кластера является определение в файле rawdevices каждой кластерной системы неформатированных устройств для основного и резервного кворумных разделов. Это необходимо сделать до запуска программы cluconfig.
Если неформатированные устройства используются кластерными службами, привязки этих устройств также задаются в файле rawdevices. Отредактируйте файл и укажите неформатированные символьные и блочные устройства, привязку которых вы бы хотели выполнять при загрузке системы. Чтобы изменения, внесенные в файл rawdevices, вступили в силу без перезагрузки, выполните следующую команду:
service rawdevices restart |
Ниже приведен пример файла rawdevices, в котором описаны два кворумных раздела:
# raw device bindings # format: <rawdev> <major> <minor> # <rawdev> <blockdev> # example: /dev/raw/raw1 /dev/sda1 # /dev/raw/raw2 8 5 /dev/raw/raw1 /dev/sdb1 /dev/raw/raw2 /dev/sdb2 |
Обратитесь к разделу Настройка кворумных разделов в главе 2 за дополнительной информацией о создании кворумных разделов. Обратитесь к разделу Создание неформатированных устройств в главе 2 за дополнительной информацией об использовании команды raw для привязывания неформатированных устройств к блочным устройствам.
Замечание | |
---|---|
Настройку неформатированных разделов необходимо выполнить на каждом узле кластера. |
Под псевдонимом кластера понимается привязывка IP адреса к одному из активных узлов кластера. В каждый определенный момент времени этот IP адрес будет принадлежать только одному узлу кластера. Этот IP адрес удобно использовать для управления и наблюдения за системой. Например, администратору может понадобиться подключиться через telnet к действующему узлу кластера, причем не важно к какому. В этом случае достаточно указать в параметрах telnet IP-псевдоним кластера (или связанное с ним имя). Однако чаще псевдоним кластера используется для подключения графической программы наблюдения к работающему узлу кластера. В этом случае, если один из двух узлов кластера не работает, вы по-прежнему можете наблюдать за работой кластера; при этом можно не задумываться, к какому из узлов кластера подключиться.
Запустив cluconfig, вы увидите предложение задать псевдоним кластера. На экране появится следующее приглашение:
Enter IP address for cluster alias [NONE]: 172.16.33.105 |
Как показано выше, по умолчанию предлагается значение NONE, которое означает, что псевдоним кластера не определен, но вы можете изменить это значение и определить в качестве псевдонима кластера, например IP-адрес 172.16.33.105. IP адрес, используемый для псевдонима кластера должен отличаться от IP адресов, связанных с сетевыми именами узлов кластера. Он также должен отличаться от IP адресов, связанных с кластерными службами.
Запустив cluconfig для определения параметров конфигурации кластера, вы увидите следующее приглашение:
Do you wish to enable monitoring, both locally and remotely, via \ the Cluster GUI? yes/no [yes]: |
Ответив yes, вы разрешаете локальный и удаленный мониторинг посредством графических утилит. Это единственное средство обезопасить удаленный доступ для наблюдения работой кластера. Графические утилиты кластера способны только наблюдать за работой кластера, и не могут вносить каких-либо изменений в конфигурацию.
Ответив no (нет), вы отключите доступ к кластеру из графической среды наблюдения.
В этом разделе приведен пример использования утилиты конфигурации кластера cluconfig, которая запрашивает у вас информацию об узлах кластера, а затем сохраняет эту информацию в базе данных кластера. Копия этих данных будет записана в файл cluster.conf. В этом примере, информация, вводимая в программе cluconfig, соответствует следующей конфигурации кластера:
В кластерной системе storage0:
Пульсирующие Ethernet каналы: storage0 Последовательный порт переключателя питания: /dev/ttyC0 Переключатель питания: RPS10 Кворумные разделы: /dev/raw/raw1 и /dev/raw/raw2 |
В кластерной системе storage1:
Пульсирующие Ethernet каналы: storage1 и cstorage1 Пульсирующий последовательный канал: /dev/ttyS1 Последовательный порт переключателя питания: /dev/ttyS0 Переключатель питания: RPS10 Кворумные разделы: /dev/raw/raw1 и /dev/raw/raw2 |
IP адрес, используемый в качестве псевдонима кластера: 10.0.0.154
/sbin/cluconfig Red Hat Cluster Manager Configuration Utility (running on storage0) - Configuration file exists already. Would you like to use those prior settings as defaults? (yes/no) [yes]: yes Enter cluster name [Development Cluster]: Enter IP address for cluster alias [10.0.0.154]: 10.0.0.154 -------------------------------- Information for Cluster Member 0 -------------------------------- Enter name of cluster member [storage0]: storage0 Looking for host storage0 (may take a few seconds)... Enter number of heartbeat channels (minimum = 1) [1]: 1 Information about Channel 0 Channel type: net or serial [net]: Enter hostname of the cluster member on heartbeat channel 0 \ [storage0]: storage0 Looking for host storage0 (may take a few seconds)... Information about Quorum Partitions Enter Primary Quorum Partition [/dev/raw/raw1]: /dev/raw/raw1 Enter Shadow Quorum Partition [/dev/raw/raw2]: /dev/raw/raw2 Information About the Power Switch That Power Cycles Member 'storage0' Choose one of the following power switches: o NONE o RPS10 o BAYTECH o APCSERIAL o APCMASTER o WTI_NPS Power switch [RPS10]: RPS10 Enter the serial port connected to the power switch \ [/dev/ttyS0]: /dev/ttyS0 -------------------------------- Information for Cluster Member 1 -------------------------------- Enter name of cluster member [storage1]: storage1 Looking for host storage1 (may take a few seconds)... Information about Channel 0 Enter hostname of the cluster member on heartbeat channel 0 \ [storage1]: storage1 Looking for host storage1 (may take a few seconds)... Information about Quorum Partitions Enter Primary Quorum Partition [/dev/raw/raw1]: /dev/raw/raw1 Enter Shadow Quorum Partition [/dev/raw/raw2]: /dev/raw/raw2 Information About the Power Switch That Power Cycles Member 'storage1' Choose one of the following power switches: o NONE o RPS10 o BAYTECH o APCSERIAL o APCMASTER o WTI_NPS Power switch [RPS10]: RPS10 Enter the serial port connected to the power switch \ [/dev/ttyS0]: /dev/ttyS0 Cluster name: Development Cluster Cluster alias IP address: 10.0.0.154 Cluster alias netmask: 255.255.254.0 Serial port connected to the power switch \ [/dev/ttyS0]: /dev/ttyS0 Cluster name: Development Cluster Cluster alias IP address: 10.0.0.154 Cluster alias netmask: 255.255.254.0 -------------------- Member 0 Information -------------------- Name: storage0 Primary quorum partition: /dev/raw/raw1 Shadow quorum partition: /dev/raw/raw2 Heartbeat channels: 1 Channel type: net, Name: storage0 Power switch IP address or hostname: storage0 Identifier on power controller for member storage0: storage0 -------------------- Member 1 Information -------------------- Name: storage1 Primary quorum partition: /dev/raw/raw1 Shadow quorum partition: /dev/raw/raw2 Heartbeat channels: 1 Channel type: net, Name: storage1 Power switch IP address or hostname: storage1 Identifier on power controller for member storage1: storage1 -------------------------- Power Switch 0 Information -------------------------- Power switch IP address or hostname: storage0 Type: RPS10 Login or port: /dev/ttyS0 Password: 10 -------------------------- Power Switch 1 Information -------------------------- Power switch IP address or hostname: storage1 Type: RPS10 Login or port: /dev/ttyS0 Password: 10 Save the cluster member information? yes/no [yes]: Writing to configuration file...done Configuration information has been saved to /etc/cluster.conf. ---------------------------- Setting up Quorum Partitions ---------------------------- Running cludiskutil -I to initialize the quorum partitions: done Saving configuration information to quorum partitions: done Do you wish to enable monitoring, both locally and remotely, via the \ Cluster GUI? yes/no [yes]: yes ---------------------------------------------------------------- Configuration on this member is complete. To configure the next member, invoke the following command on that system: # /sbin/cluconfig --init=/dev/raw/raw1 See the manual to complete the cluster installation |