基于docker服务配置Consul+registrator实时服务发现-成都快上网建站

基于docker服务配置Consul+registrator实时服务发现

Consul是用于服务发现和配置的工具。Consul是分布式的,高度可用的,并且具有极高的可伸缩性。

创新互联专注为客户提供全方位的互联网综合服务,包含不限于网站建设、成都网站建设、全椒网络推广、成都微信小程序、全椒网络营销、全椒企业策划、全椒品牌公关、搜索引擎seo、人物专访、企业宣传片、企业代运营等,从售前售中售后,我们都将竭诚为您服务,您的肯定,是我们最大的嘉奖;创新互联为所有大学生创业者提供全椒建站搭建服务,24小时服务热线:13518219792,官方网址:www.cdcxhl.com

Consul服务提供以下关键特性:

  • 服务发现:Consul 的客户端可用提供一个服务,比如 api 或者MySQL ,另外一些客户端可用使用 Consul 去发现一个指定服务的提供者.通过 DNS 或者 HTTP 应用程序可用很容易的找到他所依赖的服务;
  • 健康检查:Consul 客户端可用提供任意数量的健康检查,指定一个服务(比如: webserver 是否返回了200 OK 状态码)或者使用本地节点(比如:内存使用是否大于90%). 这个信息可由 operator用来监视集群的健康.被服务发现组件用来避免将流量发送到不健康的主机;
  • Key/Value存储:应用程序可用根据自己的需要使用 Consul 的层级的 Key/Value 存储.比如动态配置,功能标记,协调,领袖选举等等,简单的 HTTP API 让他更易于使用;
  • 多数据中心:Consul支持开箱即用的多数据中心.这意味着用户不需要担心需要建立额外的抽象层让业务扩展到多个区域。

关于Consul服务就不多介绍了,若想了解其更多功能,可移步至Consul官网 。

博文大纲:
一、环境准备
二、在Docker01上执行二进制命令部署consul服务
三、在docker02及docker03主机上以容器的方式运行consul服务
四、在docker02及docker03主机上以容器的方式运行registrator服务
五、在主机docker01上部署Nginx服务,以便提供反向代理
六、在docker01安装consul-template命令工具,并编写模板
七、验证服务的实时发现功能

一、环境准备

基于docker服务配置Consul+registrator实时服务发现

其工作示意图如下:
基于docker服务配置Consul+registrator实时服务发现

上面示意图的大概流程如下:
1、docker01主机上以二进制包的方式部署consul服务并后台运行,其身份为leader;
2、docker02、docker03以容器的方式运行consul服务,并加入到docker01的consul群集中;
3、在主机docker02、docker03上后台运行registrator容器,使其自动发现docker容器提供的服务;
4、在docker01上部署Nginx,提供反向代理服务,docker02、docker03主机上基于Nginx镜像,各运行两个web容器,提供不同的网页文件,以便测试效果;
5、在docker01上安装consul-template命令,将收集到的信息(registrator收集到容器的信息)写入template模板中,并且最终写入Nginx的配置文件中。
6、至此,实现客户端通过访问Nginx反向代理服务器(docker01),获得docker02、docker03服务器上运行的Nginx容器提供的网页文件。
注:registrator是一个自动发现docker container提供的服务,并且在后端服务注册中心(数据中心)注册服务。主要用来收集容器运行服务的信息,并且发送给consul。数据中心除了consul外,还有etcd、zookeeper等。

在开始之前,请先下载博文中配置所需要的源码包。

二、在Docker01上执行二进制命令部署consul服务

[root@docker01 ~]# rz          #上传我提供的压缩包
[root@docker01 ~]# unzip consul_1.5.1_linux_amd64.zip    #解包,解压后会得到一个命令
[root@docker01 ~]# mv consul /usr/local/bin/    #移动到命令存放路径
[root@docker01 ~]# chmod +x /usr/local/bin/consul    #赋予其执行权限
[root@docker01 ~]# nohup consul agent -server -bootstrap -ui -data-dir=/var/lib/consul-data -bind=192.168.20.6 -client=0.0.0.0 -node=master &
[1] 8330
[root@docker01 ~]# nohup: 忽略输入并把输出追加到"nohup.out"    
#执行命令后,会提示该信息,并占用终端,按回车键即可,
#运行上述命令后,会在当前目录下生成一个名为“nohup.out”的文件,其存放的是consul服务的运行日志
#执行上述命令后,consul就放到后台运行了,并返回其PID号,可以通过“jobs -l”命令进行查看

上述命令的相关参数解释如下:

  • -server:添加一个服务;
  • -bootstrap:一般在server单节点的时候使用,自选举为leader;
  • -ui:开启内部的web界面;
  • -bind:指定开启服务的IP(就是本机IP咯);
  • -client:指定服务的客户端(一般此处为任意);
  • -node:在集群内部通信使用的名称,默认是主机名。
    开启的端口作用如下:
  • 8300:集群节点;
  • 8301:集群内部访问的端口;
  • 8302:跨数据中心之间的通信;
  • 8500:http_ui;
  • 8600:DNS。

附加查询两条查询命令:

[root@docker01 ~]# consul info    #可以看到这个群集的leader及版本信息
#如:leader_addr = 192.168.20.6:8300
[root@docker01 ~]# consul members          #查看集群内部信息

至此,客户端可以访问docker01的8500端口进行验证,会看到以下页面:

基于docker服务配置Consul+registrator实时服务发现

三、在docker02及docker03主机上以容器的方式运行consul服务

###################  docker02服务器配置如下  #####################
[root@docker02 ~]# docker run -d --name consul -p 8301:8301 -p 8301:8301/udp -p 8500:8500 -p 8600:8600 -p 8600:8600/udp --restart=always progrium/consul -join 192.168.20.6 -advertise 192.168.20.7 -client 0.0.0.0 -node=node01
#上述命令中,“-join”是指定leader的IP地址(也就是docker01);“-advertise”是指定自己本身的IP地址
###################  docker03服务器配置如下  #####################
[root@docker03 ~]# docker run -d --name consul -p 8301:8301 -p 8301:8301/udp -p 8500:8500 -p 8600:8600 -p 8600:8600/udp --restart=always progrium/consul -join 192.168.20.6 -advertise 192.168.20.8 -client 0.0.0.0 -node=node02
#与docker02主机执行的命令类似,但是改成了自己的IP,及node名称改了
#注意:node名称在consul群集中,必须唯一。

注:主机docker01的consul服务也可以采用容器的方式部署,这里只是为了展示其多种部署方式而已。

至此,在docker01主机上,执行“consul members”命令,即可查看到docker02及docker03的信息,如下:

[root@docker01 ~]# consul members        #执行该命令
Node    Address            Status  Type    Build  Protocol  DC   Segment
master  192.168.20.6:8301  alive   server  1.5.1  2         dc1  
node01  192.168.20.7:8301  alive   client  0.5.2  2         dc1  
node02  192.168.20.8:8301  alive   client  0.5.2  2         dc1  

客户端访问192.168.20.6的8500端口,通过以下操作,也可看到docker02或03主机上所有与docker容器相关的端口:

基于docker服务配置Consul+registrator实时服务发现

基于docker服务配置Consul+registrator实时服务发现

四、在docker02及docker03主机上以容器的方式运行registrator服务

#############  主机docker02配置如下  #############
[root@docker02 ~]# docker run -d --name registrator -v /var/run/docker.sock:/tmp/docker.sock --restart=always gliderlabs/registrator consul://192.168.20.7:8500
#上述命令的作用是将收集的容器信息发送给本机的8500端口来显示
#############  主机docker03配置如下  #############
[root@docker03 ~]# docker run -d --name registrator -v /var/run/docker.sock:/tmp/docker.sock --restart=always gliderlabs/registrator consul://192.168.20.8:8500
#同docker02,将收集的容器信息发送给本机的8500端口来显示

五、在主机docker01上部署Nginx服务,以便提供反向代理

部署Nginx服务,这里就不写注释了,若想优化Nginx服务,可以参考博文:Nginx安装及深度优化

[root@docker01 ~]# tar zxf nginx-1.14.0.tar.gz -C /usr/src
[root@docker01 ~]# useradd -M -s /sbin/nologin www
[root@docker01 ~]# cd /usr/src/nginx-1.14.0/
[root@docker01 nginx-1.14.0]# ./configure --prefix=/usr/local/nginx --user=www --group=www --with-http_stub_status_module --with-http_realip_module --with-pcre --with-http_ssl_module && make && make install
[root@docker01 nginx-1.14.0]# ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
[root@docker01 nginx-1.14.0]# nginx

六、在docker01安装consul-template命令工具,并编写模板

consul-template的作用:将收集到的信息(把registrator收集到容器的信息)写入template模板中,并且最终写入Nginx的配置文件中。

1、生成consul-template命令工具(若要安装新版本的请移步Consul模板发布页面,下载最新版本使用):

[root@docker01 ~]# rz           #上传我提供的包
[root@docker01 ~]# unzip consul-template_0.19.5_linux_amd64.zip     #解包
[root@docker01 ~]# mv consul-template /usr/local/bin/   #移动到命令搜索路径
[root@docker01 ~]# chmod +x /usr/local/bin/consul-template    #赋予执行权限

2、在Nginx安装目录下,编写模板供consul-template命令工具使用,并且配置Nginx反向代理:

[root@docker01 ~]# cd /usr/local/nginx/
[root@docker01 nginx]# mkdir consul
[root@docker01 nginx]# cd consul/
[root@docker01 consul]# vim nginx.ctmpl    #新建一个模板文件
upstream http_backend {
  {{range service "nginx"}}            #这里的“Nginx”是基于docker镜像进行搜索的,而不是容器的名称
  server {{.Address}}:{{.Port}};
  {{ end }}
}
#以上是go语言编写的,目的是为了收集Nginx相关的IP地址及端口信息
#下面是定义反向代理
server {
  listen 8000;               #监听地址可任意指定,不要冲突即可
  server_name localhost;
  location / {
  proxy_pass http://http_backend;
  }
}
#编辑完成后,保存退出即可
[root@docker01 consul]# nohup consul-template -consul-addr 192.168.20.6:8500 -template "/usr/local/nginx/consul/nginx.ctmpl:/usr/local/nginx/consul/vhost.conf:/usr/local/sbin/nginx -s reload" &
#将本机收集到的信息,生成一个vhost.conf文件
#此服务必须在后台运行,才可实现服务的实时发现与更新
[root@docker01 consul]# vim ../conf/nginx.conf        #在主配置文件中进行调用生成的vhost.conf文件
include /usr/local/nginx/consul/*.conf;
}             #在配置文件末尾的花括号上方写入“include”配置,进行调用vhost.conf文件

七、验证服务的实时发现功能

配置至此,docker02或者docker03上一旦有任何Nginx相关的容器以后台“-d”的运行方式运行,都会被添加到反向代理中来,进行调度,一旦容器发生意外关闭,则可以自动从反向代理配置文件中剔除。

现在可以在docker02、和docker03上分别运行两台Nginx容器,其容器名称依次为web01、web02.......,其网页文件依次为:this is web01 test、this is web02 test..........

为其准备不同的网页文件的目的就是方便客户端访问时区分访问的是哪台容器。

由于其配置过程类似,我这里就写出一个运行Nginx容器的过程,其他照做即可。

配置示例如下(运行web01并修改其首页文件):

[root@docker02 ~]# docker run -d -P --name web01 nginx
[root@docker02 ~]# docker exec -it web01 /bin/bash
root@ff910228a2b2:/# echo "this is a web01 test." > /usr/share/nginx/html/index.html 

在docker02及docker03运行四个Nginx容器后(必须以后台运行的方式,也就是说在运行时必须有“-d”选项),那么,此时访问docker01的8000端口,就会循环访问到这四个容器提供的网页文件,如下:

[root@docker01 consul]# curl 192.168.20.6:8000
this is a web01 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web02 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web03 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web04 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web01 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web02 test.
#并且查看以下文件,会看到其中的配置
[root@docker01 consul]# pwd
/usr/local/nginx/consul
[root@docker01 consul]# cat vhost.conf     #以下web池中的server都是基于编写的模板自动生成的
upstream http_backend {

  server 192.168.20.7:32768;

  server 192.168.20.7:32769;

  server 192.168.20.8:32768;

  server 192.168.20.8:32769;

}

server {
  listen 8000;
  server_name localhost;
  location / {
  proxy_pass http://http_backend;
  }
}
#由于consul-template是在后台运行的,所以,只要检测到容器的变化,就会动态修改上述文件
#并且重启Nginx服务,使更改生效

若现在删除docker02及docker03所有Nginx容器,只保留一台web01,然后再次访问Nginx代理服务器的8000端口,则永远只能访问到web01的网页,并且查看vhost.conf文件,之前添加的server地址及端口也没有了,如下(自行删除或停止Nginx容器):

[root@docker01 consul]# cat vhost.conf         #该文件中只有web01容器的IP及端口信息了
upstream http_backend {

  server 192.168.20.7:32768;

}

server {
  listen 8000;
  server_name localhost;
  location / {
  proxy_pass http://http_backend;
  }
}
#多次访问,也只能访问到web01的页面:
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web01 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web01 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web01 test.
[root@docker01 consul]# curl 192.168.20.6:8000
this is a web01 test.

至此,consul+registrator+docker实时服务发现就配置完成了。

———————— 本文至此结束,感谢阅读 ————————


本文名称:基于docker服务配置Consul+registrator实时服务发现
当前网址:http://kswjz.com/article/igdsee.html
扫二维码与项目经理沟通

我们在微信上24小时期待你的声音

解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流