Red Hat Cluster Manager: Руководство по установке и администрированию Red Hat Cluster Manager | ||
---|---|---|
Назад | Глава 3. Установка и настройка программного обеспечения кластера | Вперед |
Чтобы убедиться в правильности настроек кластерного программного обеспечения, воспользуйтесь следующими инструментами, расположенными в каталоге /sbin:
Проверьте кворумные разделы, и убедитесь в их доступности.
Выполните команду cludiskutil с параметром -t для проверки доступности кворумных разделов. Обратитесь к разделу Проверка кворумных разделов за дополнительной информацией.
Проверьте работу переключателей питания.
Если в вашей конфигурации кластера используются переключатели питания, запустите clustonith в каждой кластерной системе, чтобы убедиться, что она может выполнить отключение/включение другой кластерной системы. Не запускайте эту команду в работающем кластере. Обратитесь к разделу Проверка переключателей питания за дополнительной информацией.
Убедитесь в том, что в обоих кластерных системах используется программное обеспечение одной версии.
Выполните команду rpm -q clumanager в каждой кластерной системе для отображения версии установленного кластерного пакета RPM.
В следующих разделах эти инструменты рассматриваются более подробно.
Кворумные разделы каждой кластерной системы должны относиться к одному физическому устройству. Запустите программу cludiskutil с параметром -t для проверки определения кворумных разделов и их доступности.
Если команда выполнилась успешно, запустите следующую команду cludiskutil -p в двух кластерных системах для просмотра заголовка кворумных разделов. Если выводимые данные отличаются в разных кворумных системах, это означает, что кворумные разделы указывают на разные устройства. Убедитесь в том, что неформатированные устройства определены и правильно указаны в файле /etc/sysconfig/rawdevices. Обратитесь к разделу Настройка кворумных разделов в главе 2 за дополнительной информацией.
В следующем примере показаны кворумные разделы, ссылающиеся на одно физическое устройство в двух кластерных системах (devel0 and devel1):
/sbin/cludiskutil -p----- Shared State Header ------ Magic# = 0x39119fcd Version = 1 Updated on Thu Sep 14 05:43:18 2000 Updated by node 0 -------------------------------- /sbin/cludiskutil -p ----- Shared State Header ------ Magic# = 0x39119fcd Version = 1 Updated on Thu Sep 14 05:43:18 2000 Updated by node 0 -------------------------------- |
Значения полей Magic# и Version будут равны, независимо от применяемой кластерной конфигурации. В последних двух строках указана дата инициализация кворумных разделов с помощью команды cludiskutil -I, и номер кластерной системы, выполнявшей инициализацию.
Если при выполнении команды cludiskutil с параметром -p в разных кластерных системах получаются разные результаты, выполните следующее:
Просмотрите файл /etc/sysconfig/rawdevices в каждой кластерной системе и убедитесь в том, что указаны правильные названия неформатированных символьных и блочных устройств для основного и резервного кворумного раздела. Если это не так, отредактируйте файл и исправьте все ошибки. Затем еще раз запустите утилиту cluconfig. Обратитесь к разделу Редактирование файла rawdevices за дополнительной информацией.
Убедитесь в том, что вы создали неформатированные устройства для кворумных разделов в каждой кластерной системе. Обратитесь к разделу Настройка кворумных разделов в главе 2 за дополнительной информацией.
В каждой кластерной системе, просмотрите сообщения загрузки системы в том месте, где происходит опрос подсистемы SCSI и определение конфигурации шины. Убедитесь в том, что кластерные системы обнаруживают устройства общего дискового хранилища и назначают им одинаковые имена.
Убедитесь в том, что кластерная система не пытается смонтировать файловую систему на кворумном разделе. Для этого убедитесь в том, что реальное устройство (например, /dev/sdb1) не указано в файле /etc/fstab.
Выполнив эти действия, перезапустите утилиту cludiskutil с параметром -p.
Ели в вашей конфигурации кластера используются переключатели питания с сетевым или последовательным интерфейсом, проверьте их после установки программного обеспечения кластера, выполнив команду clustonith. Выполнив эту команду в каждой кластерной системе, убедитесь, что она может удаленно отключить другую систему. Если проверка прошла успешно, можно переходить к запуску кластера. Если вы используете сторожевые таймеры или не используете никаких переключателей питания, этот тест можно опустить.
Команда clustonith может проверить работу переключателя питания, только при не работающем кластере. Это объясняется тем, что в случае с переключателями, подключенными через последовательный порт, только одна программа в один момент времени может обращаться к этому порту. Программа clustonith используется для проверки состояния программного обеспечения кластера. Если кластерное программное обеспечение запущено, программа прерывается и сообщает о необходимости остановить кластер.
Формат команды clustonith показан ниже:
clustonith [-sSlLvr] [-t devicetype] [-F options-file] \ [-p stonith-parameters] Options: -s Silent mode, supresses error and log messages -S Display switch status -l List the hosts a switch can access -L List the set of supported switch types -r hostname Power cycle the specified host -v Increases verbose debugging level |
Проверяя работу переключателей питания, сначала необходимо убедиться, что каждый узел кластера может взаимодействовать с подключенным к нему переключателем питания. В следующем примере использования команды clustonith на экран выводятся сообщение, говорящее о том, что узел кластера может связаться с переключателем питания:
clustonith -S WTI Network Power Switch device OK. |
clustonith -S Unable to determine power switch type. Unable to determine default power switch type. |
Если вы встретили такую ошибку, выполните следующие проверки:
Для переключателей питания, подключаемых через последовательный порт
Проверьте, что в базе данных кластера правильно определен специальный файл устройства для переключателя питания (например, /dev/ttyS0) (при выполнении команды cluconfig). Если необходимо, воспользуйтесь пакетом эмуляции терминала, например minicom для проверки, может ли кластерная система обращаться к последовательному порту.
Убедитесь в том, что посторонняя программа (например, getty) не использует порт, предназначенный для подключения переключателя питания. Для этого выполните команду lsof.
Проверьте правильность подключения кабелей к удаленному переключателю питания. Проверьте, соответствует ли используемый кабель типу переключателя (например, переключатель RPS-10 подключается через нуль-модемный кабель), а также надежность всех соединений.
Проверьте правильность установки физических настроечных переключателей вашего блока переключения питания. Если вы применяете переключатель RPS-10, обратитесь к разделу Настройка переключателей питания RPS-10 в приложении A за дополнительной информацией.
Для переключателей питания с сетевым интерфейсом:
Убедитесь в наличии сетевого соединения с сетевым переключателем. В большинстве переключателей есть лампочка, показывающая состояние соединения.
Попытайтесь проверить соединение при помощи команды ping; если соединение не устанавливается, возможно вы неправильно настроили его сетевые параметры.
Проверьте правильность имени и пароля (в зависимости от используемого переключателя), указанного в базе данных кластера (при выполнении программы cluconfig). Также полезной может оказаться проверка соединения с сетевым переключателем при помощи программы telnet с параметрами, указанными в конфигурации кластера.
Проверив соединение с переключателем, попытайтесь выключить/включить другой узел кластера. Перед выполнением этой команды, рекомендуется проверить, что другой узел кластера в данный момент не выполняет какие-либо важные действия. Ниже приведена команда, выполняющая отключение/включение другого узла:
clustonith -r clu3 Successfully power cycled host clu3. |