GaussDBT分布式集群数据库每日维护必做必知

GaussDB T分布式集群数据库每日维护必做必知

作者:魏斌 2020-02-22 14:14:24

数据库

分布式 维护的目的是让系统更稳定,维护工作越简单,维护人员就越不容易出错。尽可能的把维护工作脚本化、工具化、自动化,将人员解放出来做更有价值的事情是我们的目标。路漫漫其修远兮,一起加油吧!

继《GaussDB T分布式集群这样安装部署不踩坑》,我们开始GaussDB T每日维护必做的事情。新的一天从开启主机开始,把虚拟机打开后发现上次安装的数据库没有自启动,所有节点启动的相关进程仅cm_agent进程:

这个时候我们先要拉起ETCD:

OK,ETCD成功拉起,接下来我们拉起整个集群:

集群拉起成功。

后面我们会将ETCD及集群自动拉起加入自启动,下面开始回到开篇的主题,每日维护开始。

一、集群状态检查

第一件事当然是检查集群各节点资源状态情况啦,至于看啥,我们用一张图来了解要点:

1、查看各节点资源是否是ON LINE,其中包括CM,CN,DN,ETCD等,如果不是,需进一步核查原因了。

2、查看各节点对比昨日是否涉及节点切换情况,查看节点对应的HOST即可。如有则异常,需进一步核查原因了。

二、检查主机资源使用情况(所有主机)

1、主机目录使用率

df -h

2、CPU、内存及IO使用情况

这个检查的方法很多,这里使用了vmstat,iostat,free,请重点关注以下红框标示的位置。

释:id列代表的是CPU空闲率,free列代表的是空闲内存,单位为页。

释:rMB/s及wMB/s的是每秒读写情况,%util在统计时间内所有处理IO时间,除以总共统计时间。例如,如果统计间隔1秒,该设备有0.8秒在处理IO,而0.2秒闲置,那么该设备的%util = 0.8/1 = 80%,所以该参数暗示了设备的繁忙程度。如果该参数是100%表示设备已经接近满负荷运行了(当然如果是多磁盘,即使%util是100%,因为磁盘的并发能力,所以磁盘使用未必就到了瓶颈)。

释:重点关注free及available。

注:本节资源检查需与基线进行比对,如出入过大需进一步核查原因。

三、核查各节点数据库状态

确认CN及DN都处于open状态,注意备DN是mount状态。

四、表空间使用率检查

当在进行使用率检查之前,先说下表空间如何创建。

1、连接到cn

zsql omm/gaussdb_123@127.0.0.1:8000 –q

2、创建表空间

CREATE TABLESPACE tbs_test1 DATAFILE 'tbs_test1' size 100m SHARD;

注:创建表空间时,使用SHARD关键字则支持将创建表空间语句自动下发至CN和DN节点且仅支持使用相对路径;若不使用SHARD关键字,则可使用绝对路径,同时需要在所有CN和主DN节点上都创建这个表空间后,才能正常在这个表空间下创建表。

3、检查数据文件,我们会发现在CN及DN都创建了对应的表空间及数据文件

注:连接主DN使用如下命令连接。

zsql / as sysdba -D /gaussdb/data/data_dn1 -q

4、检查表空间的使用率

  
 
 
 
  1. set line 300 
  2. set pages 2000 
  3. set timing off 
  4. col tablespace_name for a25 
  5. col sum_GB for a15 
  6. col free_GB for a15 
  7. col use_precent for a15 
  8. select b.tablespace_name, 
  9.        round(sum(b.bytes) / 1024 / 1024 / 1024, 0) sum_GB, 
  10.        round(sum(nvl(a.bytes, 0)) / 1024 / 1024 / 1024, 0) free_GB, 
  11.        round((sum(b.bytes) - sum(nvl(a.bytes, 0))) / sum(b.bytes), 4) * 100 use_precent, 
  12.        count(*) 
  13.   from (select tablespace_name, file_id, sum(bytes) bytes 
  14.           from adm_free_space 
  15.          group by tablespace_name, file_id) a, 
  16.        adm_data_files b 
  17.  where a.file_id(+) = b.file_id 
  18.    and a.tablespace_name(+) = b.tablespace_name 
  19.  group by b.tablespace_name 
  20. having round((sum(b.bytes) - sum(nvl(a.bytes, 0))) / sum(b.bytes), 4) * 100 >= 0 
  21.  order by 4 desc; 

注:表空间使用率检查需在所有的主CN及主DN运行。

五、异常等待事件检查

col event form a38

select event,count(*) from DV_SESSIONS where LOCK_WAIT = 'Y' group by event order by 2 desc;

注:在所有主DN核查是否存在异常等待事件。

如图所示存在TX等待,我们可以通过以下SQL查看下锁源在干啥:

  
 
 
 
  1. select SID,SERIAL#,USERNAME,CURR_SCHEMA,CLIENT_IP,CLIENT_PORT,OSUSER,MACHINE,PROGRAM, 
  2. STATUS,LOCK_WAIT,EVENT,MODULE,CURRENT_SQL from dv_sessions 
  3. where sid in (select WAIT_SID from v$session where event like '%TX%'); 

如发现会话状态是非活动且是应用程序连上来的,可以联系应用核查是否正常,如可以kill我们可以运行ALTER SYSTEM KILL SESSION 'SID,SERIAL#'; 杀会话。

六、日志检查

在数据库运行过程中,会产生大量用于数据库日常维护的运行、审计、 DEBUG、告警等日志。在数据库发生故障时,可以使用这些日志进行问题定位和数据库恢复的操作。

下面就常用的日志类型做下简介:

1、运行日志

打印GaussDB T数据库运行信息,如果数据库出现故障,请查看zengine.rlog。

日志目录:默认为“ $GSDB_DATA/log/run/zengine.rlog”或参数log_home对应的路径run子目录下,如果想修改其路径重启生效。

CN节点:

DN节点:

查看运行日志如下:

2、慢查询日志

打印GaussDB 100数据库执行时间超过阈值(由LONGSQL_TIMEOUT参数控制)的SQL信息到zengine.lsql日志文件中。

日志目录:默认为“ $GSDB_DATA/log/longsql/zengine.lsql”。

3、告警日志

打印GaussDB 100数据库运行告警信息。如需了解告警信息,请查看zenith_alarm.log。

日志目录:“ $GSDB_DATA/log/zenith_alarm.log”。

4、操作日志

记录用户通过ZSQL工具对GaussDB 100数据库的操作信息。如果需要了解操作记录,请查看zsql.olog。

日志目录:“ $GSDB_DATA/log/oper/zsql.olog”。

5、TRACE日志

记录数据库会话死锁的信息。如需查看会话死锁信息,请查看zengine_00003_xxxxxx.trc。

日志目录:“ $GSDB_DATA/trc/zengine_00003_xxxxxx.trc”。

常见错误码:

GS-00716:Found %s deadlock in session (%u)

错误原因:不同会话中并发交叉操作了同一批数据,造成死锁。

解决办法:

  • 查看trace log 或者 run log (根据数据库版本不同,死锁日志位置不同);
  • 根据日志里记录的具体信息,包括死锁类型,SQL语句等,排查业务语句。

GS-00715:The snapshot was outdated.

错误原因:快照过旧。

解决办法:

  • 重新运行SQL;
  • 将长时间运行的高耗SQL优化或拆分。

GS-00713:No free undo page

错误原因:UNDO表空间不足。

解决办法:

  • 增大UNDO表空间大小;
  • 将大事务kill释放UNDO。

GS-00305:%s timeout

错误原因:网络api超时。

解决办法:

  • 请确保主机网络正常。

GS-00774:Failover in progress, can not be connected

错误原因:备机正在做failover时,主机的日志发送线程来连接备机。

解决办法:

  • 将主机停止掉,待备机升主后,将原主降备。

GS-00839:Flush redo file:%s, offset:%u, size:%lu failed

错误原因:写redo日志文件的时候失败了,一般是文件系统或者磁盘有问题。

解决办法:

  • 检查操作系统或磁盘。

GaussDB T数据库维护的工作很多,除了以上每日必做的事情之外,还有会话连接失败、缓冲区刷盘失败、CN/DN节点状态异常、CM Server节点状态异常、主备DN节点日志同步延迟过大等等问题核查。其中很多我们可以通过使用Database Manager分析处理告警或者使用自己开发脚本实现告警。

维护的目的是让系统更稳定,维护工作越简单,维护人员就越不容易出错。尽可能的把维护工作脚本化、工具化、自动化,将人员解放出来做更有价值的事情是我们的目标。路漫漫其修远兮,一起加油吧!

本文名称:GaussDBT分布式集群数据库每日维护必做必知
转载源于:http://www.shufengxianlan.com/qtweb/news22/321472.html

网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联