18 年买的 NAS 跑了 6 年了,感觉要退休?

249 天前
 mokevip

问题

18 年买的黑裙,一直在跑 pt 和 plex 等服务,一年多前开始出现 丢包问题

黑裙重做引导后解决,后面又出现过,再次重新做引导。最后一次( 8 个月前),感觉可能是群晖系统问题,新系统做的是 centos ,用 docker-compose 管理服务

最近又开始抽风,具体为:

  1. webdav 无法传输文件(但 alist web 可以,应该是 web 对丢包做了优化)
  2. plex web 界面打不开,外网应用无法访问,内网应用指定 ip
  3. 部分服务可以打开、部分服务打不开,应该是长连接丢包断连导致
  4. ping 丢包

排查

感觉比较玄学,重装系统能解决,像是软件问题,但是俺也换过一个系统了

暂时认定可能是积灰问题?之前没有考虑过这个角度,准备周末带着它去电脑店做个深度清洁试试。

退休

里面毕竟有不少服务,用了这么久也都调试成最融入我生活的样子了,能救还是救一救。

打算如果清洁过后,并且检查网口焊点无问题,依旧存在这种情况的话

就搞个硬盘盒 + 淘汰笔记本 强行凑个 nas 吧,毕竟财力有限。。

配置

板 u J3455-ITX 硬盘 4 盘位 内存 2 条 8g DDR3

5104 次点击
所在节点    NAS
41 条回复
id7368
249 天前
15 年的白裙 916 还在继续干活中,而且应该还要再跑几年😂
KickAssTonight
248 天前
同 18 年的 218+ 依然稳健
ltkun
248 天前
@leonme #20 带 t 和不带 t 待机功耗差不多 所以尽量预算充足点买新 U 我新搞了移动平台 13900hk 的 matx 主板 待机和性能都很不错 媲美桌面版 14600k
leokun
248 天前
有可能是网卡坏了
Les1ie
248 天前
做个 PE 系统,长时间网络测试一下,排除下是不是群晖系统的故障。 我 19 年买的的蜗牛星际目前还在服役,J1900 挂 qb 下载基本凑合够用。
mokevip
248 天前
@hunono 有外网需求,但是没有外网解码需求。。。家宽上行速度还行,在外面看一般也直接走原始质量
newbeelity
248 天前
内网 40 多毫秒吗?踢掉所有在线设备看看是否恢复吧
mokevip
248 天前
@ihainan 感谢思路,但是 linux 系统这块不是很了解,取道内核日志后发现有两个级别为 4 和一个级别 3 的日志块,烦请帮忙看一下是否代表有问题


4,194,0,-;Zone ranges:
4,195,0,-; DMA [mem 0x00001000-0x00ffffff]
4,196,0,-; DMA32 [mem 0x01000000-0xffffffff]
4,197,0,-; Normal [mem 0x100000000-0x27fffffff]
4,198,0,-;Movable zone start for each node
4,199,0,-;Early memory node ranges
4,200,0,-; node 0: [mem 0x00001000-0x0003efff]
4,201,0,-; node 0: [mem 0x00040000-0x0009efff]
4,202,0,-; node 0: [mem 0x00100000-0x0fffffff]
4,203,0,-; node 0: [mem 0x12151000-0x6b4cffff]
4,204,0,-; node 0: [mem 0x6d5c9000-0x6d69ffff]
4,205,0,-; node 0: [mem 0x6ddde000-0x6e154fff]
4,206,0,-; node 0: [mem 0x6e180000-0x6e756fff]
4,207,0,-; node 0: [mem 0x6e759000-0x6effffff]
4,208,0,-; node 0: [mem 0x100000000-0x27fffffff]


4,1207,7988601640,-;perf: interrupt took too long (2545 > 2500), lowering kernel.perf_event_max_sample_rate to 78000
4,1208,8466876642,-;perf: interrupt took too long (3210 > 3181), lowering kernel.perf_event_max_sample_rate to 62000
4,1209,10518398302,-;perf: interrupt took too long (4031 > 4012), lowering kernel.perf_event_max_sample_rate to 49000
4,1210,14163542563,-;perf: interrupt took too long (5062 > 5038), lowering kernel.perf_event_max_sample_rate to 39000
4,1211,23197602757,-;perf: interrupt took too long (6330 > 6327), lowering kernel.perf_event_max_sample_rate to 31000
4,1212,44371315064,-;perf: interrupt took too long (7918 > 7912), lowering kernel.perf_event_max_sample_rate to 25000

6,937,5298668,-;EDAC pnd2: ECC disabled on channel 0
6,938,5298670,-;EDAC pnd2: ECC disabled on channel 2
*** 3,939,5298672,-;EDAC pnd2: Failed to register device with error -22. ***
6,940,5709574,-;SGI XFS with ACLs, security attributes, no debug enabled
5,941,5718767,-;XFS (sdc2): Mounting V5 Filesystem
5,942,5749082,-;XFS (sdc2): Starting recovery (logdev: internal)
5,943,5758830,-;XFS (sdc2): Ending recovery (logdev: internal)
4,944,5807828,-;FAT-fs (sdc1): Volume was not properly unmounted. Some data may be corrupt. Please run fsck.
mokevip
248 天前
@newbeelity 嗷这个是蒲公英转发了,用的组网
mokevip
248 天前
@lindongwu11 这种硬件上的就很玄学。。。可能因为是开发软件的,总是下意识觉得有逻辑,但硬件这种东西变量太多了😢
mokevip
248 天前
@samondlee 感谢思路,这样确实可以排查掉网口问题,谢谢
mokevip
248 天前
@qa2080639 路由器内其他设备互联没有问题,以前遇到类似问题的时候也换过路由器,基本可以排除的。
mokevip
248 天前
@ltkun 大佬一般跑啥服务,正常 web 服务都不怎么吃性能吧,毕竟大部分情况下只有一个用户
mokevip
248 天前
3,832,4953708,-;tpm_crb MSFT0101:00: [Firmware Bug]: ACPI region does not cover the entire command/response buffer. [mem 0xfed40000-0xfed4087f flags 0x200] vs fed40080 f80
SUBSYSTEM=acpi
DEVICE=+acpi:MSFT0101:00
ltkun
248 天前
@mokevip #33 大部分情况 cpu 在 10 个点以下 还是 9900tes 不是新换的这块 13 代 u 这块 U 准备先试个半年稳定了再迁移 都说够用就好 但是啥是够用呢 比如我硬盘十几块 100 多 t 大多数人都肯定是够了 可是在有些人眼里就是入门 安装了 pve 主系统 虚拟机若干 lxc 容器若干 docker 几十个 我是 aio 用户 内存希望 256G 刚刚好 可是家用平台没满足的
SakuraYuki
248 天前
18 年买的 218play 还是 arm 的,目前没有任何问题
Kazetachinu
248 天前
我直接用自己的 nuc11 做家庭网关,电脑常开。
terrancesiu
248 天前
我的 15 年买的 gen8 还在服役,昨天清灰后,换了个风扇。
cxalc
248 天前
结合实际运维经验,硬件问题概率>软件
如果能排除软件层问题,先换网线、再换网卡、再换交换机/路由器
lolizeppelin
248 天前
gen8 8700t 的 nas 好得很....就是 fedora29 想换了但是懒得折腾

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1036611

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX