用 SSD 做 raid5 是不是可以显著提高重建成功率?

2020-07-04 00:33:05 +08:00
 systemcall
raid5 重建容易失败。我的理解是:
1. raid5 会有大量读操作,机械硬盘本来就快坏了,重建的时候因为读负载太大硬盘坏了
2. 硬盘的数据本身就有可能错误
3. 重建的时间较长。硬盘的批次相同、体质相似、工作负载相似,容易在相近的时间故障
SSD 的话:
1. 读操作的磨损很小,基本上不会造成损伤
2. 有校验和纠错、均衡磨损,理论上可以做到主机感知
3. 速度快、容量小,需要的时间短,并且 SSD 读操作影响小,没那么容易坏掉
4880 次点击
所在节点    硬件
27 条回复
pkwenda
2020-07-04 01:45:03 +08:00
听说 ssd 半年 - 一年 不通电数据容易丢失
IgniteWhite
2020-07-04 01:58:06 +08:00
@pkwenda 嗯,一般建议每六个月通电。因为 SSD 和所有的 non-volatile RAM 一样,数据是存在浮栅晶体管的浮栅里的。浮栅一般是金属(或类金属化合物)包在上下两片 high-k 介质里,周围有 low-k 钝化层包裹。所有介质层都是非晶氧化物,有晶界、各种类型的缺陷造成漏电,尽管速度很慢。不过要是不考虑成本且阶段性通电的话,SSD 会快一些。
vk42
2020-07-04 02:06:45 +08:00
@pkwenda @IgniteWhite 做 raid 的话不就默认常年在线么,为什么要考虑 retention error ?

用 SSD 的话主要还是成本问题吧,现在 8T 的 SSD 即使 QLC 这么长时间也比 HDD 贵几倍吧,而且写入寿命不知道能折算多少的 MTBF ?
IgniteWhite
2020-07-04 02:09:45 +08:00
@IgniteWhite 补充,也可能是多晶硅栅
cjpjxjx
2020-07-04 02:25:52 +08:00
SSD 价格够买好几块机械硬盘直接 raid1 了吧
ryd994
2020-07-04 03:41:53 +08:00
如果 SSD 做 raid 一般是为了高性能,用 raid5/6 的话校验会成为瓶颈。所以 SSD 一般用 raid10 或直接 raid0 用作缓存
ryd994
2020-07-04 03:47:45 +08:00
@cjpjxjx SSD 的优势是多少块硬盘都无法比拟的
SSD 的优势是写入延迟。这是必须落盘而不能靠缓存的。机械硬盘的寻道时间是硬伤。而且无论怎么 raid,写入延迟都不会更低,甚至因为多了一个中间层还更高了
带 bbu 的 raid 卡可以允许 writeback 缓存顶一下,但是和 SSD 的可持续性还是没法比的
optane 在这方面更强大
要追求极限的话 raid 卡本身就是瓶颈,甚至芯片组也会成为瓶颈,这就要靠 vroc 技术了
delectate
2020-07-04 07:00:20 +08:00
楼主的思考已经很深入了,值得点赞。
首先,可以用 ssd,但是成本太高了,所以通常不推荐。
raid5 的确存在“硬盘的批次相同、体质相似、工作负载相似,容易在相近的时间故障”情况,遇到了就会感到深深的绝望。
所以通常个人推荐 raid10,或者 raid6,hot spare 等方案。
loading
2020-07-04 07:25:41 +08:00
raid 是高可用方案,并不是数据备份方案,怎么多人就是不听呢?
lucifer9
2020-07-04 08:27:23 +08:00
大硬盘重建 raid5 经常失败主要是由于 Bit Error Rate
https://lenciel.com/docs/scsi-sata-reliability/
ericbize
2020-07-04 08:34:05 +08:00
之前四块家用 4T 的盘做 raid 5, 重建都没事,硬件 raid 卡才是关键吧?
ferock
2020-07-04 08:41:17 +08:00
@ericbize #11

重建没事只是概率问题,讨论问题不能拿个例做参照,这存在幸存者偏差
ericbize
2020-07-04 08:56:49 +08:00
@ferock 我是不知道,raid 有重建失败这个问题,2333
ericbize
2020-07-04 08:57:22 +08:00
@ferock 可能之前大部分都是 raid10 + 硬件 raid 卡吧
wanguorui123
2020-07-04 15:34:30 +08:00
用 SSD 不如用 RAID6 或 RAID10,足够多买几块备份机械硬盘了。SSD 一旦坏了恢复就麻烦了
iceecream
2020-07-05 22:35:11 +08:00
cachecade 可以折中一点
594duck
2020-07-06 07:44:15 +08:00
我们生产环境都是 raid10 * 4 块万转磁盘 ssd 只是做 cache
beijiaoff
2020-07-06 11:31:14 +08:00
现在存在叠瓦盘和非叠瓦混卖的情况,如果做 raid5,一定要认真鉴别。重建时间可能有 10 倍以上的差距。 还有,时刻记得是高可用性方案,不是备份方案。先确定自己的目的再选择技术。
beijiaoff
2020-07-06 11:31:55 +08:00
上面咋丢掉了 raid 单次,raid5 是高可用性 不是备份方案
no1xsyzy
2020-07-06 16:00:17 +08:00
@beijiaoff #18 之前存在,现在已经不存在了,主要大厂均明确声明,以后的所有产品上明确标注 SMR/PMR 。主要还是集体诉讼这个机制比较先进。(我之前还天真以为 HMR 之类可用了所以没必要混杂 SMR/PMR 了)
那个测试里重建花了 9 天来着?拿叠瓦式做 NAS 必须是可感知并且配合感知处理的文件系统,否则别想了。换句话说,消费者级别想了。

顺便让我也来复读下吧
raid 是高可用方案,并不是数据备份方案,怎么多人就是不听呢?
ZFS 定期全卷备份不好吗? systemd 做个 mount 即开始备份的 trigger,定期插一下就好了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/687040

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX