很多朋友经历了前几天阿里云3小时左右的故障,我司的业务也受到了一定影响,技术的同事一起熬夜奋战,最终观察服务稳定运行了两个多小时。
一次事故如一场战役,不管是在故障过程中的处理,还是故障后的总结,除了骂阿里云,我们自己有没有可以改进的空间呢?结合我司昨夜的处理过程,说一下自己的一点想法。
画外音:技术人,还是聊技术,决定不了别人,我们做好自己。
一
凌晨,收到运维负责人的电话,阿里云部分机房故障,并从阿里云同事收到反馈,问题仍在定位,恢复时间不确认。
画外音:关键时刻,手机欠费了,运维负责人还帮我充了200话费,才打通,真曲折。
整个过程中,我们能做什么呢?
这里面,潜在的技术问题是:
画外音:如果让业务方先发现问题,反问技术部,服务怎么出问题了,是何等尴尬?
我们的运维同学立刻通过脚本,确定了大概有50来台服务器受影响。
DBA同学也立刻确认了,RDS数据库服务没有受到影响。
画外音:
潜在的非技术问题:
画外音:
二
过了一个多小时了,阿里云仍未反馈修复时间,这个时间大家都有点着急了,那除了干等着,我们自己能做些什么呢?
因为只有部分区域的服务器异常,能不能申请一些新的服务器,将受影响服务器上的站点与服务重新部署,通过服务治理将流量切到新的服务上,是不是能恢复(至少部分恢复)呢?
整个过程中,我们能做的是:
这里面,潜在的技术问题是:
(1) 能不能快速进行服务器扩容;
画外音:昨晚我们迅猛购买了50台ECS,这是云的好处。
(2) 知道了受影响的服务器IP,如何能够快速确定这些IP上部署了哪些站点与服务?这些站点与服务的上下游是什么,连带影响范围是什么?
画外音:这是有待提高的地方,每个负责人都知道自己的IP上部署了什么,但并不可视化。
(3) 如何快速站点与服务扩容与缩容,如何服务发现,如何迁移流量?
画外音:服务治理,任重道远。
三
又过了大概半个小时,我们购买完服务器,梳理站点与服务的过程中,阿里云专家反馈,“问题定位有了关键进展,不出意外的话30分钟恢复”。此时我们内部评估,30分钟50台ECS的初始化,服务部署,流量迁移恐怕完不成,还是等阿里云好了。
果真大概半个小时,阿里云专家反馈恢复了,这时我们要做的:
画外音:有些定时任务可能需要手动再次执行。
这里面的很多工作,是通过手工,还是脚本自动化,还是平台可视化来判断与执行?技术平台的迭代,仍重而道远。
四
服务观察稳定后一段时机。朋友圈、微博上开始对阿里云进行声讨,都在提自己的优化方案:
1. 是时候换一个云了;
换一个云能解决问题么?用其他云的朋友,可以评论反馈下故障频率。
我相信,各家有各家的问题,我甚至愿意相信,阿里云的故障率是相对较低的。
2. 是时候自建机房了;
自建机房能解决问题么?自建机房的朋友,可以评论反馈下故障频率。
说实话,让我自建机房,我目前真没有信心做得比阿里云更好。
3. 是时候多机房多活了;
“多机房多活”不是四个字这么简单,需要多大的成本,需要多少技术基础服务支撑,需要多大的架构改造,有考虑过么?
画外音:58同城15年做机房迁移时做过多机房多活,我还算有一定发言权。
我相信,目前99.9%的公司,目前的业务阶段,目前的投入产出比,不适合做多机房多活。
骂阿里云不解决问题,这次事故过程中发现的自身的问题,我们要继续去改进。
特别是服务治理体系,可视化监控与运维体系,任重而道远。
不为阿里云洗地,阿里云你影响了我们几个小时业务可用性,该陪的要赔,尽量加倍赔,让我们看到你的诚意。
画外音:谁有XX云的接口人联系方式,请小窗我一下。
末了,让我特别感动的一点,还是一起熬夜奋战的兄弟姐妹们。早晨,还有部分同学赶去公司,要把运营反馈的不一致数据,进行修正。
我相信,因为有你们,业务一定能做成。
我相信,大家的付出老板一定看得到,3/4月份的涨薪一定有你。
【本文为专栏作者“58沈剑”原创稿件,转载请联系原作者】
戳这里,看该作者更多好文
分享文章:这一次,除了骂阿里云,还能做些什么?
转载源于:http://www.shufengxianlan.com/qtweb/news48/310598.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联