不做 raid 的硬盘,使用过程一直保持正常开关机,从不突然断电,震动,高温,温度长期保持 50 度以下,硬盘真的会坏掉吗? 用多久,硬盘才会出现问题?
1
blueboyggh 23 小时 30 分钟前
电子产品,说不好的,可能有人一辈子也不坏,可能有人几天就坏了
|
2
w2er 23 小时 27 分钟前 via Android
这就是概率问题,所以重要资料务必备份为好。虽然确实绝大部分人没见过坏掉的硬盘
|
3
zw5473547 23 小时 13 分钟前 2
即使做了 raid 的硬盘也不是不会坏,只是在赌同一阵列的硬盘不会同时坏掉多块。。。
|
4
CapNemo 23 小时 5 分钟前
终究会的。即使 raid 也不是万无一失,被电涌、勒索软件、软硬件 BUG 、天灾一波带走的可能性总是存在的。完全取决于你愿意投入多少预算来防止数据损失。
|
5
MaverickLee 22 小时 50 分钟前
做不做 Raid 和坏不坏,好像没有直接的因果关系吧(懵)
|
6
jinliming2 22 小时 37 分钟前
RAID 和坏不坏没有直接关系吧?只是:
不做 RAID 大部分是单块硬盘,坏的几率很小;而做 RAID 肯定是多块硬盘,虽然其中每一块坏的几率很小,但是硬盘数量越多,越容易碰到坏硬盘的情况。 或者,可能做 RAID 大部分情况下多块硬盘是放的距离比较近的,机械硬盘共振会提升每一块硬盘坏的几率? |
7
totoro625 22 小时 35 分钟前
一般来说,设计寿命都是上百万小时,持续运行 100 年是没任何问题的
出现问题一般都是由于外界因素导致的 夸张地举例:供电波动,电源老化,地壳运动,宇宙辐射 |
8
sagaxu 22 小时 34 分钟前
硬盘会不会坏是个概率问题,只要时间够长,你可以认为它一定会坏。而且很可能在 rebuild 的时候再坏一块,所以为了应对这种情况,引入了 raid 6 和 raid z2 ,raid z3 允许同时坏 3 块。如果数据非常重要,在做了 raid 的基础上,还要至少存 3 份,同城不同机房一份,异地一份。
做什么级别的冗余,取决于你丢数据后愿意花多少钱找回。 |
9
NoOneNoBody 22 小时 21 分钟前
我绝大部分 HDD 硬盘,都没用 raid ,[准]冷备,按需接上,能撑 8 年以上,满 8 年即使没坏也会换,数据迁移到新盘,不过有时手头宽裕,也会提前换
目前正在服役约 40 只,2 寸 10 只,部分超过 10 年,几乎没坏的,按容量逐步退役就可以了; 3 寸 30 只左右,每年退役三只,上个月刚退役了一只 6T ( 2016 年购入),并没有坏,现在只作为临时盘使用 固态不作为长期储存用途 另外,raid 本来就不是备份用途,它只是数据保真用途,不要理解错了 |
10
OneLiteCore 22 小时 18 分钟前
记得前不久站上刚有人讨论过这个问题?有个老哥说就是组 Raid 是为了保证比如 MySQL 这样重要的服务在运行时就算坏了一块盘也能够临时顶住服务,之后运维老哥就该备份全盘数据然后重新替换一整套的 Raid 并恢复数据和服务。不选择直接重建 Raid 是为了避免重建时仅剩的硬盘继续损坏导致数据暴毙。
换句话说 Raid 并不是用来代替备份的,而是相当于 ICU 一样在临终前有机会交代后事用的。 |
11
OneLiteCore 22 小时 11 分钟前
假如单盘损坏的概率是 x 有两个硬盘的话,Raid1 的和定期备份到另一个盘的数据暴毙概率都是 x²,但是后者可用容量是前者的两倍,对个人用户来说肯定是后者的更合适一些。
|
12
y1y1 22 小时 1 分钟前
真的会坏,做 raid 也也会坏
|
13
renmu 21 小时 54 分钟前 via Android
做 raid 的硬盘应该坏得更快,多了更多的写入。
|
14
FlytoSirius 21 小时 46 分钟前
不要再用 raid 了, 太陈旧了. 在硬盘故障中, 恢复的过程比较脆弱, 很容易出问题.
现今 NAS 早都已经首先考虑使用 ZFS 了, 最初是为 Solaris 服务器系统设计的一套高健壮性文件系统. |
15
datocp 21 小时 34 分钟前 via Android
不做 raid 的硬盘,使用过程一直保持正常开关机,从不突然断电,震动,高温,温度长期保持 50 度以下,硬盘真的会坏掉吗? 用多久,硬盘才会出现问题?
我的使用体验是 5 年,实际公司有些远超 10 年以上,银河企业盘最关键的有大量可替换坏道,但不代表不坏数据。但是这年头即便声称是垂直盘的东芝,我宁愿用 ssd ,凯侠 tc10 ssd 也轻松过 5 年。 哈哈,你好像把所有的问题都提到,就是没关心现在无良厂家的高科技叠瓦盘?手里 1 个 500GB/1 个 2T 的移动硬盘,2T 的我都不敢用,经常听到声音像是断电重启。2 ~ 3 年前给财务买的,今年挂了还外面做了一次数据恢复。 现在直接用凯侠 tc10 替换,除了企业盘,我已经对硬盘没信心了。 另外通过 smart ,特别出现警告时就要小心了,想来那批 e560 ,2016 年买来至今也就换了一个硬盘,连 smart 都挺正常。台式最惨的 1 次关闸,整盘 99%坏。。。网上会有教程教如何看 smart 的关键参数,v2ex 我也发过,和接近坏的硬盘很有参考意义。 问题最难预测的还是坏道,坏文件。似乎说来说去是 zfs 有这种检验,平时自己想尝试对大量文件做校验感觉也非常麻烦,而且也仅只能是不变化的文件。 |
16
MoeMoesakura 14 小时 34 分钟前 via Android
拿了一堆 WD5000AAKX 装 PVE 上 就抽奖 转了一年 均温大于四十度 就看哪天报警
|
17
BigShot404 14 小时 28 分钟前
都会坏啊,我今年坏了 2 块了,一块 2T 的,一块 1T ,都是 NAS 里的,还有一块 500G 的 SSD ,现在写入满速,读取 6MB/S ,估计也快了。
|
18
aladd 14 小时 17 分钟前
我各种价位的 SSD ,最近 10 年+,没有一个坏的。小尺寸的机械硬盘 15+了,也没坏。但大方砖型的硬盘全都坏了,西数!无敌!甚至老人用的电脑硬盘都坏!
|
19
BBBOND 14 小时 9 分钟前
不是说做了 raid 就不会坏,而是坏了能一定程度上恢复数据
|
20
felixcode 14 小时 0 分钟前 via Android
RAID 不是解决硬盘寿命问题,也不是解决数据备份问题,而是解决存储的高可靠性问题的
|
21
niubee1 13 小时 54 分钟前
我之前有个比较老的群晖,有过两三次停电造成的掉电,然后用了一年多盘坏了,没有 raid ,掉了很多数据。如果你觉得还是有数据想要永久保存,比如比特币钱包,还是上 raid 吧
|
22
chendy 13 小时 35 分钟前
纯概率问题,做 raid 不是不会坏,是坏了数据可以恢复
类似车上的备胎,有没有备胎都有扎胎的可能,但是有备胎可以在扎胎之后凑合一下 |
23
believingsee 13 小时 24 分钟前
当然会坏,时间问题,有早有晚
|
24
wfhtqp 13 小时 21 分钟前
raid 是保证高可用,并不是数据备份,怕坏要勤备份并保证 321
|
25
sbboy 13 小时 18 分钟前
读研究生的时候遇到过好几次实验室服务器硬盘故障,最早的时候管理员把系统盘设为 raid1 ,数据盘设为 raid0 ,后来数据盘坏了可真是要了命了,拿去数据恢复公司对方也是头大,搞了好几个月也没恢复出来。
|
26
Yanlongli 13 小时 9 分钟前
都会坏,只是说 raid 的组合模式(除 raid 0)坏其中一部分硬盘仍可保障数据安全,而单盘坏了就坏了没有数据保障。
|
27
zxjxzj9 12 小时 59 分钟前
我的理解,raid 不是为了防止硬盘坏掉的,是为了防止某些数据集中在一块硬盘上导致坏了之后没地方找的。如果你想要硬盘坏的慢一点或者根本不坏,那么少频繁启动开机,注意散热才是最重要的,和 raid 没关系。我的策略就是下载全进 SSD ,HDD 尽量只用顺序存储/读写的方式读数据
|
28
oreader996 12 小时 50 分钟前
不怕一万,就怕万一
|
29
salmon5 12 小时 48 分钟前
是的,做了 RAID 硬盘就不会坏了
特别是你做了 RAID0 ,硬盘根本不可能坏 |
30
yanxu4780 12 小时 47 分钟前
关键你电脑支不支持 raid ,如果不支持,那做也没用。不推荐使用软 raid ,出了问题不好搞,而且重要资料也不易恢复。关键还是在于,多备份。
|
31
salmon5 12 小时 46 分钟前
当你做了 RAID0 ,硬盘会被保护起来,永远不会坏掉
|
32
xcodeghost 12 小时 38 分钟前
普通硬盘平均寿命在通电 10 万小时,企业级的稍微高一点。当然这是大部分硬盘寿命,缩小到个体的话,全看运气。
你看 IDC 机房的硬盘就知道了,不断电、没高温,一样大量的损坏。 |
33
thunderw 12 小时 27 分钟前
我手里管理着 10 来台服务器,大约五六十块硬盘吧,大概平均每年会坏一两块的样子。
我自己的移动硬盘,二十年来也坏过三四块了吧。最惨痛的一次是丢了 30G 的 dvix 电影,不过现在都动不动 4K Dolby Vision 了,当年的电影就算存着也不会看了。 所以如果资料重要的话,还是要勤备份。raid 不 raid 的倒是无所谓。 |
34
vergilgao 12 小时 17 分钟前
前段时间刚坏了一块硬盘的出来现身说法:
家里的 NAS ,用的 unraid 系统,带校验盘,结果有一天有一块盘显示不同步被 unraid 踢下线了,我怕出问题,清理了现有阵列里的数据,腾出来了一块盘的空间,把被踢下线的盘的数据挪到了其他盘,然后把那块盘用采购的新硬盘替换,再重建校验数据。 整个过程删除了大概 4 个 T 的数据,都是 PT 保种的文件,所以完全不心疼。 他们说其实是可以原地重建数据,这样就不需要删除数据了,或者把新的盘直接插上然后把被踢下线的盘的数据直接复制过去。我觉得有道理。但是我没有盘位了,准备明年换个新机箱。 整个过程除了换盘的时候关机之外整个 NAS 的服务一直没有停止。 |
35
raptor 12 小时 10 分钟前
raid 就不会坏吗?坏的多了,只能是说丢数据的概率低一些,如果搞不好,可能还更高。
至于坏硬盘的概率就看运气了,同样容量的机械硬盘,我一块日立的 7X24 小用了 5 年还没坏,只是 SMART 有点告警我才换下来的,另一块希捷没用几次就坏了 |
36
jixiafu 12 小时 7 分钟前
这个要看对坏的定义了。像云端存储这些公司可能有一点点坏点就认为硬盘损坏,需要替换了,估计五年损坏率至少大于 1%,像我们个人使用的话只要还能读到硬盘数据就不算坏
|
37
nuII 12 小时 6 分钟前
没用的,3 块全新企业盘组 raid 5 , 没几天其中 2 块就一起坏了。新买的服务器,随机死机重启,硬件换了个遍,最后发现是 CPU 有问题。看运气啦
|
38
MoonLin 12 小时 2 分钟前
这是一个很简单的问题:数据中心每年都有大量硬盘报废,例如 Backblaze 每年都会出各个品牌、型号和容量的硬盘故障率排行榜。相信数据中心恒温恒湿几乎不断电应该比你家用环境要苛刻,他们的硬盘更是企业版,也比一般的体质要好。
|
39
ddczl 12 小时 1 分钟前
我不做 raid 4 年了,自己每个月做冷备
|
40
laminux29 12 小时 1 分钟前
不仅硬盘会坏,U 盘、内存条、主板、显卡,甚至电源,都会坏。这是个概率问题,当你接触到的设备越多,你就越容易观察到这个现象。
|
41
syubo2810 12 小时 0 分钟前
有点反直觉的是做了 raid 更容易坏硬盘,只是数据不容易丢,不做 raid 反而一直好好的,我现在是用同步软件做的备份,没用 raid ,这样还有好处就是哪些数据重要的做备份,不重要不需要浪费空间备份,整体可用空间也没有浪费
|
42
Huelse 11 小时 58 分钟前
只有完整拷贝和最小化单元相对最可靠,所以要么单盘+备份,要么 raid1
|
43
neptuno 11 小时 51 分钟前
1 、大家就是折腾着玩(当然折腾也很有趣),其实重要数据还是得靠备份,可以加密放到多个网盘里面。很多人弄 raid ,结果一次性买了好几块硬盘,批次差不多的,到时候要坏一起坏。2 、其实只要不是家里经常断电,硬盘真的没那么容易坏 3 、我的 nas 就是存电影的,搞什么 raid ,坏了就坏了呗,坏了还能再折腾一次哈哈
|
44
XiLingHost 11 小时 44 分钟前
raid 的目的是高可用,也就是坏了不用停机恢复数据保持服务不中断
无论是否组建 raid ,硬盘都会坏,区别就是坏了以后恢复的复杂度和时间成本 |
45
xmdbb 11 小时 35 分钟前
raid >= 1 只是确保资料不会因为硬盘损坏而丢失,至于允许多少个硬盘损坏不丢失是根据 raid 的等级。
如果是机械硬盘,机械运动时就一定存在损伤,只要损伤就会导致损坏,所以坏掉这个和你做不做 raid 无关; 如果是固态硬盘,记录是充电放单进行的,售卖和充放电次数有关(写入量),因此也和你做不做 raid 无关。 用多久,硬盘才出现故障? 没准确的时长,但可以参考硬盘的 MTTF ,企业盘一般都会给出 MTTF 参数,即平均无故障运行时间,但仅供参考。 这就是为什么大型或正规的 IDC ,就算硬盘没坏都会淘汰一堆硬盘的原因,因为使用时长已经达到了 MTTF 的参考无故障时间 |
46
m1nm13 11 小时 35 分钟前
做 raid 更容易坏...
|
47
xclimbing 11 小时 11 分钟前
硬盘坏不坏跟 RAID 没关系,硬盘什么时候会坏基本上看人品。
保证数据安全的基本原则就是 321 原则。而这些跟硬盘、RAID 都没啥关系。 |
48
lizhq 11 小时 7 分钟前
会坏, 不是摔打. 正常使用坏之前会有症状
|
49
julyclyde 10 小时 30 分钟前
硬盘就跟打印纸一样,是耗材
不要把它当资产 |
50
Felldeadbird 10 小时 28 分钟前
看运气。我的 NAS 做了 raid1 ,跑了 3 年,除了上次我故意强拔硬盘,导致丢盘故障外。没遇到问题。
至于我为什么强拨硬盘,因为机子噪音太大了,我怀疑是硬盘问题,脑抽强拔。- -。 |
51
esee 9 小时 41 分钟前 via Android
我的系统盘和重要资料盘做了 raid1 ,其他的就是单独使用,慎重选择 raid5 ,不然当你坏了一块盘,换新盘后重建 raid 的过程中,提心吊胆的感觉很不好受的
|
52
hwf 7 小时 13 分钟前
做不做 raid 与硬盘坏不坏没有直接关系, raid 的出现只是为了减少硬盘坏掉导致的数据损失罢了
|
53
datocp 7 小时 5 分钟前
其运营的磁盘中有 4.2%的磁盘会出现上述 5 个 S.M.A.R.T. RAW_VALUE 大于零的情况,并且其中有 76.7%的磁盘在之后真的出现了故障。当然还有 23.3%的磁盘的故障无法通过这 5 个指标提前预测到。统计来源 https://www.backblaze.com/blog/what-smart-stats-indicate-hard-drive-failures/ RAW_VALUE 的值大于零为依据,即可以有 7 成的机率提前预测磁盘的失效。但是这些属性的 RAW_VALUE 值出现了大于零的数值,并不代表这些盘一定会损坏,有可能磁盘已经自动修复了这些错误。所以这些值可以作为判断的依据,是否要更换磁盘还需要将管理员自行判断。
0A_SMART 10 Spin_Retry_Count 起转重试次数 0C_SMART 12 Power_Cycle_Count 启动-关闭循环次数 SMART 189 05_SMART 5 Reallocated_Sector_Ct 重新分配扇区计数 BB_SMART 187 Reported_Uncorrect 报告的无法修正错误 BC_SMART 188 Command_Timeout 命令超时 C5_SMART 197 Current_pending_Sector 当前等待中扇区数(状态存疑/不稳定-等待后续判断) C6_SMART 198 Offline_Uncorrectable 无法修正的扇区总数 我也根据人家的建议做了将近 3 年的记录,绝大部分的感觉就是突然断电导致的,只是企业盘有更多的可映射坏道,家用盘数量有硍 250srv_9WK3TBSA 20210827 SMART 5 25769803783 20211109 SMART 5 30064771080 20231125 SMART 5 90194313238 20210827 SMART 187 0 20231125 SMART 187 5 250srv_WKD2HWHN 20210827 SMART 187 34 20240508 SMART 187 34 20210827 SMART 197 1464 20210827 SMART 198 1464 #做了格式化 20210901 SMART 197 0 20210901 SMART 198 0 有个笔记本硬盘出现警告,指向 C5_SMART 197 Current_pending_Sector 当前等待中扇区数(状态存疑/不稳定-等待后续判断) |
54
lxh1983 6 小时 48 分钟前 via iPhone
希捷酷狼,通电两天后坏了
|
55
ciki 3 小时 45 分钟前
和 raid 没关系,raid 只是一种组织硬盘的方式
|