群晖大容量硬盘的兼容性问题

4 天前
 Shoukaku
最近扩容了一下手头的群晖 923+,没有提前留意官网的兼容性列表,直接上了两块西数 HC560 20T ,与原来“盘位一”上的西数 14T 做 SHR ,结果扩充完运行了几天其中“盘位二”的 20T 硬盘突然提示读取错误、存储池降级。

https://imgur.com/a/7kjPNVx

但是比较奇怪的是硬盘的 SMART 测试没有显示问题,单独下载了西数官网的检查工具做了次 full scan ,也没有发现任何坏扇区或异常,于是格式化上机后重建存储池。
找淘宝卖家,卖家说可能是兼容性问题导致的,所以拿着 007revad 的脚本刷新了一下群晖的硬盘兼容性列表,但是等重建完几天清理磁盘空间的时候再次出现了此问题。

由于担心是群晖 SATA 接口的故障,所以把硬盘从盘位二拿下来换到盘位四再次重复了上述过程,结果依然是重建完没多久就报错。

这是 dmesg 的信息: https://imgur.com/a/wtOPSeu
完整的日志(时刻 1941682.517803 附近): https://pastebin.com/Vhy6R2zn

想问下有没有朋友碰到过类似的问题?从日志上看能看出是这块硬盘有问题还是大容量硬盘确实不兼容?
群晖兼容性列表: https://www.synology.cn/zh-cn/compatibility?search_by=drives&model=DS923%2B&category=hdds_no_ssd_trim&display_brand=other
从官网经过测试的结果上看,最大的第三方硬盘目前只兼容到 16T 。
1527 次点击
所在节点    NAS
17 条回复
msg7086
4 天前
可能确实会有兼容性问题吧。按理 Linux 下是不会有这种问题的,但是看扇区号哪里都有,也不像是大容量兼容性或者坏块,硬要说的话可能是 SATA 控制器的问题或者就是驱动或软件写得有问题吧?很难说。
blk_update_request: I/O error, dev sata2, sector in range 10230902784
blk_update_request: I/O error, dev sata2, sector in range 27344576512
blk_update_request: I/O error, dev sata2, sector in range 31057534976
你看这三块地方是完全分散的。
elfmacs
4 天前
会不会是电源功率不够
povsister
4 天前
掉盘之前 hung 了一堆 kernel task ,看起来有点奇怪,我的建议是,远离 SHR 和 btrfs ,单独挂载这块 20T 做存储试试
rssf
4 天前
你最好换个大功率电源看看,群晖的电源带这种企业级实际是不够的
rssf
4 天前
你可以看看钱韦德做的硬盘启动功耗测试,这种企业盘实际功耗可不低
povsister
4 天前
@rssf
4x18T 银河带两块致态,DS923 目前一年了没有问题。
企业盘峰值功耗体现在启动那一下,平时氦气盘甚至是比机械盘省电的。
群晖启动时是 2 块 2 块错峰启动的,所以应该也不会有问题。
Shoukaku
4 天前
@msg7086 #1 本来觉得群晖做这个兼容性列表只是为了卖卖自家盘,但是现在有点不好说😂
Shoukaku
4 天前
@povsister #6 请问你做了 RAID 吗?我这边主要已经有一块 14T 的容量匹配不上,所以选择了 SHR 。如果能带 18T 银河,那我感觉 20T 应该问题也不大?希望不是 SATA 控制器的问题。。
povsister
4 天前
@Shoukaku
做了,两块 R1 ,另外两块当 Basic 用。fs 都是 ext4
mongoose
4 天前
@povsister
btrfs 这么容易出问题吗,可是它能做快照哎
povsister
4 天前
@mongoose
真有快照需求自建上 ZFS ,群晖私有 SHR+btrfs 个人认为是无法信任的。
目前策略是数据分层+rsync 备份,有需要的自动定期 zstd 打压缩包 rotate ,重要数据 iCloud 会再存一份。
rssf
3 天前
@povsister 4 块 18t 一块读写,群晖默认带的电源就是刚刚够
Jacksu
3 天前
@mongoose 没那么夸张,你别用远古内核,btrfs 已经很稳了,用了三年没出过问题了
Scarletlens
3 天前
用 basic 试下
zmcity
3 天前
1621+ 用 2*22T 和 1*18T 没什么问题。不过之前有损坏过一块 HC550 16T ,现象是频繁掉盘,是因为群晖自己的问题损坏的,返修换新了。
Shoukaku
2 天前
@zmcity 频繁掉盘是插槽问题导致硬盘重连计数 ICRC 增长吗?我这边应该不是这个问题,SMART 扫描 ICRC 没有异常
zmcity
2 天前
@Shoukaku 对,组 raid1 的另一块盘的重连计数也有增长,但没挂,换新后现在还坚挺使用。

https://imgur.com/a/S0Vj9J6

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1053637

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX