正在设计更新家中的小机房架构。初步计划有以下机器:
所有设备通过 10G Fiber 互联,部分设备可以 bond 成 20G ,除了跳板机使用 Windows ,NAS 使用厂商系统,其他机器均使用 Ubuntu 。
我使用的绝大多数 Docker 应用都是来自或者基于 Linuxserver ,他们把所有的用户数据都封装到了/config 下,非常好管理,目前业务都跑在一台比较落后的 NAS 上 All-in-One ,因此设想的是后续将存储和计算分离开来。
现有两种模式:
所有 docker 容器的 AppData 都存放在 NAS 的纯闪池中,把/config 映射到 NAS ,EPYC 和媒体服务器通过挂载 iSCSI 的方式进行访问,类 shared-disk 架构。优点是便于管理,代价是交换机或者 NAS 一炸所有东西都会挂
服务器自身配备适当的 1-2TBSSD ,相关的 AppData 访问本地硬盘,通过 NAS 提供的同步工具定期备份到存储池中,NAS 仅作备份和快照,代价是要多花千把来块买 SSD 并且管理繁琐,并且不抗单点故障
是否有类似的存算分离模式实践过?这两种模式的区别在于,如果核心数据都存储在远端网络的话,跨网通信带来的 IO 延迟对应用的运行性能究竟有多大的影响?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.