一、故障现象:
告警日志:
sun feb 09 14:18:42 2020
auto-tuning: shutting down background process gtx2
sun feb 09 15:06:00 2020
note: asmb terminating
errors in file /opt/oracle/app/diag/rdbms/xxxx/xxxx1/trace/xxxx1_asmb_7463.trc:
ora-15064: communication failure with asm instance
ora-03113: end-of-file on communication channel
process id:
session id: 68 serial number: 5
errors in file /opt/oracle/app/diag/rdbms/xxxx/xxxx1/trace/xxxx1_asmb_7463.trc:
errors in file /opt/oracle/app/diag/rdbms/xxxx/xxxx1/trace/xxxx1_asmb_7463.trc:
ora-15064: communication failure with asm instance
ora-03113: end-of-file on communication channel
process id:
session id: 68 serial number: 5
asmb (ospid: 7463): terminating the instance due to error 15064
termination issued to instance processes. waiting for the processes to exit
sun feb 09 15:06:11 2020
instance termination failed to kill one or more processes
instance terminated by asmb, pid = 7463
sun feb 09 15:12:24 2020
starting oracle instance (normal)
************************ large pages information *******************
per process system memlock (soft) limit = unlimited
total shared global region in large pages = 0 kb (0%)
large pages used by this instance: 0 (0 kb)
large pages unused system wide = 0 (0 kb)
large pages configured system wide = 0 (0 kb)
large page size = 2048 kb
recommendation:
total system global area size is 24 gb. for optimal performance,
prior to the next instance restart:
1. increase the number of unused large pages by
at least 12289 (page size 2048 kb, total size 24 gb) system wide to
get 100% of the system global area allocated with large pages
********************************************************************
从数据库告警日志可以发现,核心进程asmb 在2.9日15.06分 突然提示正在终止,随后一节点数据库报错,不能与 asm通信, 也就是连不上 asm存储,检查asm告警日志发现,核心进程asmb 在2.9日15.06分 被kill 掉,随后一节点的asm实例挂掉,导致一节点数据库也紧跟着挂掉
二、故障原因
从15:03开始
一节点开始报 voting file所在的磁盘,io通信有超时的现象,磁盘hang住, 到15.05分开始 ocr_vote磁盘离线,一节点被剔出集群,
后续检查主机,发现主机重启过,检查操作系统日志,发现从15.02分开始,: info: task ocssd.bin:16080 blocked for more than 120 seconds. 有任务被hung 住,
该错误是由于io子系统的处理速度不够快,不能在120秒将缓存中的数据全部写入磁盘。io系统响应缓慢,导致越来越多的请求堆积,最终io 耗尽,系统内存全部被占用,导致系统失去响应,发生故障。
三、故障解决
建议一:
可以调整 操作系统参数,
vm.dirty_ratio=20
vm.dirty_background_ratio=3
目前操作系统配置文件/etc/sysctl.conf
中 没有这两个参数 ,建议调整,sysctl -p 生效,(调整该操作系统参数不用重启主机)
vm.dirty_background_ratio 这个参数指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如5%)就会触发pdflush/flush/kdmflush等后台 回写进程运行,将一定缓存的脏页异步地刷入外存;
操作系统参数说明:
vm.dirty_ratio 这个参数则指定了当文件系统缓存脏页数量达到系统内存百分之多少时(如10%),系统不得不开始处理缓存脏页(因为此时脏页数量已经比较多,为了避免数据丢失需要将一定脏页刷入外存);在此过程中很多应用进程可能会因为系统转而处理文件io而阻塞。
建议二:
另外在检查中,发现该主机未配置大页,建议配置大页,可以极大提升数据库性能
后期调整后至今没有发现主机重启,故障解决。