V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
qping
V2EX  ›  NAS

群晖 raid1 恢复怎么这么慢, 2T 的硬盘里面只有 600G 数据,已经 24 小时了.

  •  
  •   qping · 2021-06-28 10:49:12 +08:00 · 5102 次点击
    这是一个创建于 1235 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我是两个 2T 组了 Raid1.

    插硬盘的时候把在用的一个硬盘拔下来了. 结果 raid1 变成了“堪用”状态, 立马插回去也不能变回来.
    只能恢复. 结果 600G 数据 已经恢复了 24 小时, 进度才 52%.

    想问下: 1 、都是这么慢的吗 2 、这时候我可以传文件吗

    40 条回复    2023-09-15 15:38:42 +08:00
    hobart
        1
    hobart  
       2021-06-28 10:51:36 +08:00   ❤️ 1
    就是慢,不要传
    wanguorui123
        2
    wanguorui123  
       2021-06-28 10:54:35 +08:00   ❤️ 1
    1,小文件很慢正常,机械硬盘随机性能太差
    2,硬盘有坏道也会很慢
    soulzz
        3
    soulzz  
       2021-06-28 10:57:43 +08:00
    所以 家用最好的两种选择:
    要么 raid1 要么 raid0
    ilylx2008
        4
    ilylx2008  
       2021-06-28 11:03:08 +08:00
    raid1, 600G,你再弄快盘全部 copy 出来都比 rebuild 快吧
    otakustay
        5
    otakustay  
       2021-06-28 11:03:30 +08:00
    RAID 恢复一直很慢,我 80G 的数据搞了一晚上
    mxT52CRuqR6o5
        6
    mxT52CRuqR6o5  
       2021-06-28 11:06:20 +08:00
    和你存多少数据没关系,和硬盘大小有关系,你就是 1KB,raid 也是全盘恢复,raid 是不知道你文件系统相关的信息的
    具体 2T 硬盘需要花多久我就不清楚了
    反正确实是重新 copy 出来会比 rebuild 快
    qping
        7
    qping  
    OP
       2021-06-28 11:06:54 +08:00
    @hobart #1 谢谢, 我再想一个问题如果恢复的时候不能用, 恢复周期又很长, 那是不是就没有用 raid1 的必要了, 对于家用多备份就好了
    @wanguorui123 #2 有点担心被我拔坏了....
    @soulzz #3 不了解原理, 单纯拷贝的话,也早拷完了
    qping
        8
    qping  
    OP
       2021-06-28 11:07:23 +08:00
    qping
        9
    qping  
    OP
       2021-06-28 11:08:45 +08:00
    @ilylx2008 #4
    @mxT52CRuqR6o5 #6 不小心按了回车, 按道理都不用 copy 的 ,我是拔了立马插回去的, 数据是一模一样的, 但是群晖不识别,所以走了恢复. 有其他办法可以 copy 然后避免 build 吗?
    yitingbai
        10
    yitingbai  
       2021-06-28 11:10:03 +08:00
    个人文件存储, 组 raid 完全没有必要,如果技术不佳, 反而适得其反, 数据反而更危险. 而且组 raid 之后如果不定期备份数据的话, 数据早晚火葬场, 既然定期备份, 也就没有组 raid 的必要了
    mxT52CRuqR6o5
        11
    mxT52CRuqR6o5  
       2021-06-28 11:10:50 +08:00
    鉴于 raid 不清楚文件系统信息,我个人现在是选择使用 ZFS,用起来限制比 raid 多(扩容会很麻烦),但是可以知道存了多少文件,恢复时不会全盘恢复,恢复时遇到问题也可以跳过而不会直接恢复失败
    mxT52CRuqR6o5
        12
    mxT52CRuqR6o5  
       2021-06-28 11:13:06 +08:00
    @qping 根据我的知识是我认为是没办法的( raid 不清楚文件系统的信息),只有新建的时候 raid 知道没有数据可以直接新建
    yuyu2140
        13
    yuyu2140  
       2021-06-28 11:14:20 +08:00
    反正我是 basic 走天下,定期冷备份
    mxT52CRuqR6o5
        14
    mxT52CRuqR6o5  
       2021-06-28 11:14:30 +08:00
    @qping 要是使用某些特殊方法(我也不清楚有没有这种办法)强行跳过恢复过程把硬盘标记为正常状态也没法保证数据安全性
    Mithril
        15
    Mithril  
       2021-06-28 11:28:41 +08:00
    @qping RAID 是设备级别的功能,不是文件系统级别的,不知道你这硬盘上到底哪里写了有用数据哪里是垃圾。
    当你重建 RAID 的时候,是整个硬盘完全重建。相当于 2T 的数据直接全盘复制过去。
    如果你只用了 600G,肯定是要比你直接拷贝文件慢很多的。
    qping
        16
    qping  
    OP
       2021-06-28 11:47:55 +08:00
    @Mithril #15 了解了,谢谢
    qping
        17
    qping  
    OP
       2021-06-28 11:50:45 +08:00
    @mxT52CRuqR6o5 #14 了解了, 以后会放弃 raid1 了, raid0 潇洒走一回
    PolarBears
        18
    PolarBears  
       2021-06-28 12:01:20 +08:00
    个人认为如果 NAS 组 raid1 不是为了高可用的话,不如定时同步两块硬盘做备份.
    geniussoft
        19
    geniussoft  
       2021-06-28 12:20:19 +08:00   ❤️ 1
    1. 系统设置中可以将速度设置为尽快。

    2. 如果你不幸选用了 SMR 的硬盘,就会很慢。

    3. 如果你的群晖性能不济,就会很慢。

    4. 10 TB 硬盘,在 RAID1/5/6 情况下,大概 12 小时。
    qping
        20
    qping  
    OP
       2021-06-28 13:45:34 +08:00
    @geniussoft #19 那时候年轻,买了 2 块 SMR 的西数红盘
    afirefish
        21
    afirefish  
       2021-06-28 16:11:58 +08:00
    raid1 一般是有拷贝速度限制的,不晓得群辉里面是怎么设置的。但是 lsi 的专业阵列卡默认恢复速度是 30%,目的是为了在恢复时不影响正常业务的开展,再加上机械硬盘本来速度就慢。
    no1xsyzy
        22
    no1xsyzy  
       2021-06-28 19:08:01 +08:00
    @qping SMR 就算了走好不送。
    大概可以期待一下一个月后可以重建完毕,有大约 8 成的指望。
    liukangxu
        23
    liukangxu  
       2021-06-28 20:15:55 +08:00
    8*14T RAID6,由于启停设置错误造成两块盘 offline,降级到 RAID0 ;后续恢复过程 RAID0->RAID5->RAID6 共花费约 40 小时
    liukangxu
        24
    liukangxu  
       2021-06-28 20:17:03 +08:00
    此前还有一次从 RAID6 降级到 RAID5,恢复过程只花了不到 20 小时
    LaoChen
        25
    LaoChen  
       2021-06-28 21:27:38 +08:00
    @liukangxu 小白求问,群晖的启停哪里设置?非常用 NAS (比如一礼拜看一次电影这种情况),可以长期硬盘休眠,有读写再旋转吗?能和群晖的软 RAID1 和平共存吗?
    redeemer1001
        26
    redeemer1001  
       2021-06-29 00:28:28 +08:00
    @qping #17 raid0 是拿数据安全换速度 非常危险
    msg7086
        27
    msg7086  
       2021-06-29 01:22:46 +08:00 via Android
    SMR 慢正常,重建时间是普通盘的好几倍,运气不好可以跑好几天。
    tankren
        28
    tankren  
       2021-06-29 08:23:06 +08:00
    RAID 并不代表安全
    qping
        29
    qping  
    OP
       2021-06-29 13:54:10 +08:00
    @no1xsyzy #22 重建好了,花了大概 60 个小时
    qping
        30
    qping  
    OP
       2021-06-29 13:54:55 +08:00
    @liukangxu #24 啥硬盘?
    qping
        31
    qping  
    OP
       2021-06-29 14:02:51 +08:00
    @redeemer1001 #26 raid0 每天备份一次, 每个月冷备份一次, 问题不大
    redeemer1001
        32
    redeemer1001  
       2021-06-29 14:32:13 +08:00
    @qping #31 群晖的出口是千兆网卡吧 这样的话不需要 RAID0 吧
    qping
        33
    qping  
    OP
       2021-06-29 16:09:51 +08:00
    @redeemer1001 #32 我是黑裙,不过你说的有道理
    liukangxu
        34
    liukangxu  
       2021-06-30 08:30:19 +08:00
    @LaoChen 没有用过群晖,上述配置用的是阵列卡
    liukangxu
        35
    liukangxu  
       2021-06-30 08:30:37 +08:00   ❤️ 1
    @qping HC530 14T
    745839
        36
    745839  
       2021-07-01 17:04:22 +08:00
    1.3T 数据,一宿。也是堪用状态。
    purezhang
        37
    purezhang  
       2023-08-27 17:37:06 +08:00
    我的 6.23 版本的 H 群晖,原有系统盘,3T ( 16G 数据),新增了一个 8T ,与原有系统盘( 3T )组 RAID1 ,修复过程已经 72 小时+了,刚 50%。。。。。。
    qping
        38
    qping  
    OP
       2023-08-29 08:04:09 +08:00 via Android
    @purezhang 只有等
    话说你的 3t+8t 组出来是不是只有 3t 可用,那 5t 不是浪费了
    purezhang
        39
    purezhang  
       2023-09-15 15:38:25 +08:00
    @qping 还有后续步骤,完成后,在拿另一块 8t 替换 3t ,形成 8+8 ,然后扩容到 8T-RAID1
    purezhang
        40
    purezhang  
       2023-09-15 15:38:42 +08:00
    已经完成了 搞定了,谢谢以上各位
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5541 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 34ms · UTC 01:30 · PVG 09:30 · LAX 17:30 · JFK 20:30
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.