滴滴事故的起因是底层系统软件发生故障,并非网传的“遭受攻击”

361 天前
 ucyo

滴滴在 28 日启动了内部复盘调查。初步确定,这起事故的起因是底层系统软件发生故障,并非网传的“遭受攻击”。

6416 次点击
所在节点    程序员
41 条回复
ucyo
361 天前
11 月 27 日夜间发生的系统故障,给广大用户造成了诸多困扰和不便,在大家需要我们的时候,我们让大家失望了,再次向大家真诚致歉。



各项服务恢复的同时,我们在 28 日启动了内部复盘调查。初步确定,这起事故的起因是底层系统软件发生故障,并非网传的“遭受攻击”,后续我们将深入开展技术风险隐患排查和升级工作,全面保障服务稳定性,尽最大努力避免类似事故再发生。



目前,滴滴 App 的所有服务已经全部恢复。因这起事故给大家造成的困扰和问题,我们正在加快妥善解决。感谢大家对滴滴的鞭策、关心和包容。今天的滴滴还有很多不足,我们将以此为戒,在全公司范围内深刻反思,全力改正,继续努力做好服务保障。




滴滴出行

2023 年 11 月 29 日
wcnmm
361 天前
降薪裁猿,所以走之前留了一个定时 bug (
julyclyde
361 天前
@wcnmm 切不可无证据随意污蔑他人清白哦
lovelylain
361 天前
到现在还只是初步确定故障原因,也是神奇,有没有知道细节的彦祖说一下,这到底是个什么样的故障?
mightybruce
361 天前
已经在一些网站上公布了,是因为 K8s 版本升级升错了,造成基础设施问题。
https://www.oschina.net/news/268635
binbin0915jjpp
361 天前
K8S... 运维要祭旗
mightybruce
361 天前
基础设施才会导致这种大规模问题,否则软件版本回滚还是很快的。难道降本增效到了深水区了。
flyqie
361 天前
@mightybruce #5

运维是怎么做到把 1.20 当 1.12 的?

太离谱了。。这俩也不太能看错吧,并且还没审核出来进生产环境?
cubecube
361 天前
@lovelylain 内部肯定知道了,就是打个马虎眼,不会公布的
1145148964
361 天前
连会升级服务器的都没了。。。。。。。。。
事实证明学技术无法不被裁员,得学点其他的
pandaPapa
361 天前
K8S 版本错误 不至于搞这么久吧
leefor2020
361 天前
@pandaPapa , 可能是找这个原因找了很久
mightybruce
361 天前
@pandaPapa 如果是集群所有的 master 高可用节点都挂了, 想调度都调度不了。这种错误真的是极其少见。
mightybruce
361 天前
k8s 跨版本升级是有很多坑的, 像滴滴 K8s 版本这么久还没升级估计就是在做很多测试。 结果版本还升级错了。
MuSit
361 天前
12 还有人在用? 我很好奇之前滴滴用的啥版本.8?
hahastudio
361 天前
说起来网传“遭受攻击”这件事,我是在这个调查说明里才见到的,之前有其他地方传过么
esile
361 天前
@julyclyde 基本上就是把默默无闻真正在干活的裁了
Frankcox
361 天前
k8s 1.12 那都是多久之前了,而且更新一个控制节点是怎么做到“污染整个机房”的,我个人是很怀疑网传这事的真假的
julyclyde
361 天前
@esile 刚才 @wcnmm 的意思是,被裁的人刻意留 bug 。他说了“所以”这个词
esile
361 天前
@julyclyde 正经人最好都写点 bug 不然真的随时优化掉

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/996249

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX