内网一个网站但是多个服务器主机, 大概有 3 台可用的, 部分时间段会开启 6 台, 来应对并发高峰, 现在先假设只有 3 台是可用的
202.192.xxx.129
202.192.xxx.131
202.192.xxx.134
一台可以访问内网也可以访问外网的隧道客户端主机 (上下行 100 兆)
端口设置:
81 -> nginx 反代到 202.192.xxx.129
82 -> nginx 反代到 202.192.xxx.134
83 -> nginx 反代到 202.192.xxx.131
84 -> nginx 反代到 202.192.xxx.134
81 隧道到服务端主机 1 的 8081
82 隧道到服务端主机 2 的 8081
83 隧道到服务端主机 3 的 8081
84 隧道到服务端主机 4 的 8081
4 台有公网 ip 的隧道服务端主机 (均为上下行 1 兆) (师弟手里的服务器)
服务主机 1,2,3,4
8081 -> http
8083 -> ngrok controll link
分配一批子域名到对应的主机的公网 ip
主机 1: ngrok-1.xxxx.cn
主机 2: ngrok-2.xxxx.cn
主机 3: ngrok-3.xxxx.cn
主机 4: ngrok-4.xxxx.cn
还有一个爬虫(缓存)主机, 目前部署在的云服务器里面, 然后通过隧道爬虫内网的网站, 再对外提供服务
那么如何做这样的隧道结构的负载均衡?
在爬虫那里做一层? 然后内网隧道客户端主机做一层?
爬虫否应该搬到隧道客户端主机?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.