暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

IBM 的 clverify 与 Oracle 的 cluvfy

原创 eygle 2009-06-26
939

昨晚在客户Oracle数据库系统上应用一个Patch时,遇到了一幢惊心动魄的事情。

当我们刚刚应用完Patch之后,系统上就出现了一条广播消息,提示:

Broadcast message from root@p570 (tty) at 00:00:19 ...

clverify has detected cluster configuration errors on node p570. Detailed clverify output is available in standard clverify log on node p570.
提示说clverify检查到Cluster错误,因为应用的一个Patch和CRS有点关系,但是第一感觉是:难道CRS除了问题?
而且直接把clverify误判成了Oracle的Cluvfy,汗!
Oracle的cluvfy是用来验证Oracle集群的一致性的,我用cluvfy检查一下也没有发现问题

[oracle@dbrac1 oracle]$ cluvfy


USAGE:
cluvfy [ -help ]
cluvfy stage { -list | -help }
cluvfy stage {-pre|-post} <stage-name> <stage-specific options>  [-verbose]
cluvfy comp  { -list | -help }
cluvfy comp  <component-name> <component-specific options>  [-verbose]
再仔细看提示才发现此clverify不是cluvfy:

HACMP 5.1中,包括集群校验程序(clverify)和新的集群通信后台(clcomdES)都需要/var文件系统下附加的空间。

要得到详细的消息和附加的调试信息,在每个节点的/var下需要满足:

Ø        20M仅一次,包括:

-          /var/HACMP/clcomd/clcomd.log  2M

-          /var/HACMP/clcomd/clcomddiag.log  18M

Ø        /var/HACMP/odmcache目录下附加的(1M*集群中的节点数)空间。

Ø        4M每个节点集群的效验数据。

Ø        2M的集群效验logclverify.log[0-9])。

在集群的每个节点中,效验工具在需要/var4M的空间,clverify可以在同一时间最多保持四份节点效验数据的拷贝(节点初始化和同步时)

/var/HACMP/clverify/current//*包含当前执行的效验的日志。

/var/HACMP/clverify/pass//*包含最后通过的效验的日志。

/var/HACMP/clverify/passprev/ /*包含倒数第二次通过效验的日志。

/var/HACMP/clverify/fail//*包含最后一次失败的效验日志。

同时,/var/HACMP/clverify/clverify.log和它的拷贝消耗1-2M的磁盘空间。
再来检查HACMP的日志,发现的确是系统Cluster因为两台主机的时间不一致发出了一个警告,和数据库无关。
ERROR: The HACMP timestamp file for shared volume group: oraclevg is inconsistent
with the time stamp in the VGDA for the following nodes: p1 p2
重启数据库,一切是正常的。

这个故事说明,DBA不仅要心理素质好,眼神也要好!

-The End-




「喜欢这篇文章,您的关注和赞赏是给作者最好的鼓励」
关注作者
【版权声明】本文为墨天轮用户原创内容,转载时必须标注文章的来源(墨天轮),文章链接,文章作者等基本信息,否则作者和墨天轮有权追究责任。如果您发现墨天轮中有涉嫌抄袭或者侵权的内容,欢迎发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论