Red Hat Cluster Manager: Руководство по установке и администрированию Red Hat Cluster Manager | ||
---|---|---|
Назад | Глава 3. Установка и настройка программного обеспечения кластера | Вперед |
Файл /etc/syslog.conf позволяет вам настроить запись сообщений о работе кластера в файл, отличный от /var/log/messages. Это позволит вам провести диагностику проблем проще и быстрее.
В кластерных системах для записи событий о работе кластера используется демон syslogd, как указано в файле /etc/syslog.conf. Файл журнала упрощает диагностику проблем в кластере. Рекомендуется настраивать протоколирование в демоне syslogd таким образом, чтобы отслеживались события кластера только от системы, в которой он запущен. Поэтому, для получения полной картины вам придется просматривать журналы в каждой кластерной системе.
Демон syslogd записывает сообщения, поступающие от следующих кластерных демонов:
cluquorumd — демон кворума
clusvcmgrd — демон, управляющий службами
clupowerd — демон, управляющий питанием
cluhbd — демон, проверяющий пульс
clumibd — демон, выполняющий мониторинг системы
Значительность события определяет уровень важности записи о нем в журнале. Важные события необходимо рассматривать до того, как они повлияют на доступность кластера. Кластер может генерировать события следующих уровней важности, упорядоченных по степени важности:
emerg — Использование кластерной системы невозможно .
alert — Для решения проблемы необходимо срочно предпринять какие-либо действия.
crit — Произошла критическая ошибка.
err — Произошла ошибка.
warning — Произошла значительная ошибка, на которую следует обратить внимание.
notice — Произошло событие, не влияющее на работу системы.
info — Было выполнено обычное действие.
debug — Диагностические сообщения, связанные с обычной работой кластера.
По умолчанию демоны кластера генерируют события с уровнем важности warning и выше.
Пример записей журнала приведены ниже:
May 31 20:42:06 clu2 clusvcmgrd[992]: <info> Service Manager starting May 31 20:42:06 clu2 clusvcmgrd[992]: <info> mount.ksh info: /dev/sda3 \ is not mounted May 31 20:49:38 clu2 clulog[1294]: <notice> stop_service.ksh notice: \ Stopping service dbase_home May 31 20:49:39 clu2 clusvcmgrd[1287]: <notice> Service Manager received \ a NODE_UP event for stor5 Jun 01 12:56:51 clu2 cluquorumd[1640]: <err> updateMyTimestamp: unable to \ update status block. Jun 01 12:34:24 clu2 cluquorumd[1268]: <warning> Initiating cluster stop Jun 01 12:34:24 clu2 cluquorumd[1268]: <warning> Completed cluster stop Jul 27 15:28:40 clu2 cluquorumd[390]: <err> shoot_partner: successfully shot partner. [1] [2] [3] [4] [5] |
В каждой записи журнала содержится следующая информация:
[1]Время
[2] Кластерная система, в которой произошло это событие
[3] Подсистема, сгенерировавшая событие
[4] Уровень важности события
[5] Описание события
Завершив настройку программного обеспечения кластера, по своему усмотрению, отредактируйте файл /etc/syslog.conf для записи событий кластера в файл, отличный от файла событий по умолчанию, /var/log/messages. Кластерные утилиты и демоны отмечают свои события syslog-меткой local4. Использование отдельного файла для событий кластера упрощает диагностику и решение проблем. Для записи событий кластера в оба файла: /var/log/cluster и /var/log/messages, отредактируйте файл /etc/syslog.conf, как показано ниже:
# # Cluster messages coming in on local4 go to /var/log/cluster # local4.* /var/log/cluster |
Чтобы не дублировать сообщения и записывать события кластера только в файл /var/log/cluster, отредактируйте файл /etc/syslog.conf следующим образом:
# Log anything (except mail) of level info or higher. # Don't log private authentication messages! *.info;mail.none;news.none;authpriv.none;local4.none /var/log/messages |
Чтобы внесенные изменения вступили в силу, вы можете выполнить команду killall -HUP syslogd, или перезапустить syslog следующей командой: /etc/rc.d/init.d/syslog restart.
Кроме этого, вы можете изменить уровень важности событий, генерируемых отдельными кластерными демонами. Обратитесь к разделу Настройка протоколирования событий кластера в главе 8 за дополнительной информацией.