Docker Swarm 集群初探

2018-03-07 09:17:47 +08:00
 hansonwang99


前言

相信 Docker 技术大家都有所了解,单个 Docker 能发挥的作用毕竟有限,也不便于管理,所以 Docker 得组集群来使用才能发挥强大的技术优势。既然要组集群那就涉及诸如 Docker 的资源调度、管理等等一系列问题。目前涉及 Docker 集群的三个主要的技术无外乎 Swarm、Kubernetes、Mesos 三种。从本文开始作者将会一一实践这几种主要的 Docker 集群技术,话不多说,现在开始。

注意:作者的 kubernetes 相关实践在此


环境准备


环境搭建

节点规划如下:

我们需要 4 个节点( 1 个 master + 3 个 slave ),由于没有真实地 4 台物理机,所以下文中是靠docker-machinevirtualbox以及boot2docker来虚拟出 4 个独立 IP 地址的带 docker 环境的节点,大家注意!

环境安装:

Tips: 以前 Mac 上一般是使用boot2docker这个专门为 OS X 上运行 Docker 而开发的一个轻量级的虚拟主机管理工具来安装 docker,现在boot2docker这种安装方式官方已经 deprecated 了(当然下文中还是需要boot2docker.iso的镜像来帮助我们在虚拟的节点上起 docker 环境),可以直接下载 docker 的 dmg 安装包双击进行安装即可

我们选择 docker CE 版安装即可,下载链接如下: https://store.docker.com/search?type=edition&offering=community

注意:选择官方 docker dmg 包安装完成以后,docker-machine已经天然地集成于其中了,该工具在下文中创建虚拟节点时需要,它是一个可以在虚拟主机节点上安装 docker engine 的工具

由于我们搭建集群需要具备多个不同 IP 地址的节点,然而我们手上仅一台电脑,所以需要借助 virtualbox 来虚拟出多个不同 IP 地址的节点供我们使用需要

去官方下载 virtualbox 的 dmg 安装包,双击安装即可: https://www.virtualbox.org/

我使用的是 brew 这个 mac 上的包管理器安装的,非常方便,只需一行命令: brew install boot2docker

除此之外我们还需要下载 boot2docker.iso 镜像在后文中进行使用: https://github.com/boot2docker/boot2docker/releases/tag/v17.07.0-ce 我们先把boot2docker.iso下好后面备用


Docker Swarm 集群实验

先创建 4 个虚拟节点( 1 个 master + 3 个 slave )

首先要将之前下载的boot2docker.iso放到/Users/你的用户名 /.docker/machine/cache/目录下,然后执行如下命令:

docker-machine create --virtualbox-boot2docker-url ~/.docker/machine/cache/boot2docker.iso master
docker-machine create --virtualbox-boot2docker-url ~/.docker/machine/cache/boot2docker.iso slave1
docker-machine create --virtualbox-boot2docker-url ~/.docker/machine/cache/boot2docker.iso slave2
docker-machine create --virtualbox-boot2docker-url ~/.docker/machine/cache/boot2docker.iso slave3

注意:上面若不指定 boot2docker 的路径:--virtualbox-boot2docker-url ~/.docker/machine/cache/boot2docker.iso,直接执行docker-machine create master创建节点时,可能会报No default Boot2Docker ISO found locally, downloading the latest release...这种错误!所以最好自己指定 boot2docker.iso 镜像路径

docker-machine 命令创建虚拟机过程细节如下:

创建完 4 个节点以后,可以用docker-machine ls命令查看一下各个节点的情况,可以看到自动为其分配了独立的 IP 地址:

ssh 接入虚拟节点

开启 4 个独立的 terminal 终端,分别执行:

docker-machine ssh master
docker-machine ssh slave1
docker-machine ssh slave2
docker-machine ssh slave3

执行后的效果如下图:

接下来在 master 上初始化一个 docker swarm 集群

执行命令:

docker swarm init --advertise-addr 192.168.99.100

效果如下:

上述命令执行成功后,提示中会告知用户在 slave 节点上执行命令 docker swarm join --token SWMTKN-1-1uzft9zcrd5cl7eva4gr4ptgrs1gc252483ey19xfphcuxc8ta-evsmmj7b7kleh7yoezjutzuu2 192.168.99.100:2377 可以加入到该集群中,把命令都告诉你了,你说智不只能!

将 3 个 slave 节点加入集群

分别去三个 slave 上,输入上面提示中的命令:

docker swarm join --token SWMTKN-1-1uzft9zcrd5cl7eva4gr4ptgrs1gc252483ey19xfphcuxc8ta-evsmmj7b7kleh7yoezjutzuu2 192.168.99.100:2377

执行效果如下:

注意:如果忘了 docker swarm join 命令中的 token 命令的话,可以使用命令docker swarm join-token worker来 get 之

好,到此为止应该说 docker swarm 集群的搭建工作已经完成了,那下面在这个集群上做点实际的任务吧!

开始在 master 节点上创建服务

我们计划在该 docker 集群上部署高可用的 nginx 容器任务来作为演示: 在 master 节点上执行如下命令来创建名为 mynginx 的 service,让其有 2 份 nginx 容器副本分配到集群中去,起在 8080 端口: docker service create --replicas 2 -d -p 8080:80 --name mynginx registry.docker-cn.com/library/nginx 然后使用如下两条命令查看效果:

docker service ls
docker service ps mynginx

执行效果如下:

此处有两点需要注意:

  1. 我们使用了registry.docker-cn.com/library/nginx作为加速镜像,不然可能在 slave 上 pull 镜像的时候 timeout
  2. 注意此处创建了 service 之后并不是 nginx 容器立马都在 slave 上起起来了,是需要等一段时间的(如,我等了近 8 分钟),因为在 slave 上还要去 pull nginx 镜像,再启动 nginx 容器等,没有那么快

等待若干分钟以后,我们再看效果,发现此时任务顺利地分发到 slave1 和 slave2 上了:

分别用浏览器访问: http://192.168.99.101:8080 和 http://192.168.99.102:8080,会得到如下结果:

成功访问到了 slave 节点中起起来的 nginx 服务!

此时分别去 slave1 和 slave2 上查看容器运行情况,结果如下:

进一步实验:扩容 service 中的任务

我们想将 nginx 容器平滑地扩容到 3 份,在 master 上执行:

docker service scale mynginx=3

然后在 master 上查看 service,发现新增的一个容器任务分配到 slave3 上了,当然此时 slave3 上正在 preparing:

等若干分钟后在 master 上再次查看 service,发现 slave3 上的 nginx 容器任务成功启动了:

去 slave3 节点上 docker ps 看一下,发现容器确实启动了:

####进一步实验:集群中 service 高可用 目前有 3 个运行的 nginx 容器保证服务的可用性,如果其中一个容器意外关闭将会是什么情况?接下来就来模拟

我们关闭 slave1 上此时正在运行着的 nginx 容器,看服务有什么变化:

此时去 master 节点上查看信息发现,被关掉的 nginx 被分配到 master 上重启了:

此时我又关闭 master 节点上启动的 nginx 容器,发现刚关闭不久后,nginx 容器又重新在 master 上恢复了:

接下来我们来将 slave3 宕机(宕机和前文的关闭 nginx 容器不同,此处模仿的是物理宕机),我们在控制台中使用 docker-machine stop 来模拟宕机动作:

此时去 master 上查看 service 信息发现 slave3 宕机以后,nginx 任务又重启与 slave1 上来保持高可用:

最后来把狠的,我们将 slave1,slave2,slave3 全部从集群中断开:

结果去 master 上查看 service 信息,发现 3 个容器副本全部迁移到 master 之上了:

此时在 master 上执行docker ps查看容器信息如下:运行着 3 个 nginx 容器:

总而言之,无论怎么操作集群都能保持制定数量的容器副本来实现高可用!


[干货] 总结一下上文中的常用命令

docker-machine create 虚拟主机名
docker-machine ls
docker-machine stop 虚拟主机名
docker-machine rm 虚拟主机名
docker swarm init --advertise-addr master 的 IP 地址
docker swarm join --token [token] [master 的 IP]:[master 的端口]
docker swarm leave
docker swarm join-token worker
docker service create --replicas 2 -d -p 8080:80 --name 服务名 镜像名
docker service ls
docker service ps 你所创建的服务的 ID
docker service rm 服务名
docker service scale 你的 service name=你要的副本数目

参考文献


后记

想要看作者关于 kubernetes 的相关实践? 请戳这里

作者更多的原创文章在此

2664 次点击
所在节点    Docker
1 条回复
mahone3297
2018-03-07 10:02:34 +08:00
* 可以编写 docker-compose.yml ,然后用 docker stack deploy 直接一键部署
* docker 的 load balance 是怎样的?我发现,用 nginx replicas=3 的话,你刷新,他每次直接轮询 n1,n2,n3 (假设 3 个 node ),而是 n1 处理了好多请求,才到 n2,n2 也是处理了好多请求,才到 n3.不知道这个策略是怎样的,请教。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/435610

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX