国内最全IT社区平台 联系我们 | 收藏本站
华晨云阿里云优惠2
您当前位置:首页 > php开源 > 综合技术 > Consul入门04 - Consul集群

Consul入门04 - Consul集群

来源:程序员人生   发布时间:2016-06-30 08:45:22 阅读次数:4935次

Part 1:转载自:https://segmentfault.com/a/1190000005040904

我们已启动了我们的第1个代理并且在这个代理上注册和查询了服务。这些显示了使用Consul是多么的容易但是并没有展现Consul的可扩大性和可用于产品级别的服务发现的基础设施。在本篇向导中,我们将建立我们第1个多成员的真实的集群。

当1个Consul代理启动后,它对任何其他的节点都1无所知:它是个单独的隔离集群。为了让它感知其他的集群成员,代理必须加入1个现有的集群中去。为了加入1个现有的集群,它只需要知道1个单个的现有成员。它加入后,代理将广播该成员,并且快速发现集群中的其它成员。1个Consul代理能够加入任何其它的代理,不单单是那些运行在服务模式下的代理。

启动代理

为了摹拟1个相对真实的集群,我们将通过Vagrant启动两个节点的集群。接下来使用的Vagrantfile可以在Consul仓库demo中找到。

我们首先启动两个节点:

$ vagrant up

1旦该系统可用了,我们就可以通过ssh登录到该系统,并开始配置我们的集群。我们开始登录到第1个节点:

$ vagrant ssh n1

在我们之前的例子里,我们使用 *-dev 标志来快速地设置1个开发服务器。不管如何它其实不能用于1个集群的环境下。我们将移除 -dev* 标志,而是替换成指定的用于集群的标志,下面就回触及该标志。

每一个集群节点都必须有1个唯1的名称。默许下Consul使用计算机的主机名,不过我们可使用 -node 命令行选项手动地覆盖它。

我们也能够指定 绑定地址:Consul将在该地址侦听,并且改地址可以被集群中所有其它的节点访问到。虽然1个 绑定 的地址不是1个严格需要的(Consul将默许侦听在系统中第1个私有的IP),不过最好提供1个。1个生产环境下的服务通常有多个网络接口,所以指定1个 绑定 地址将保证你不会把Consul绑定到毛病的网络接口上。

第1个节点现在将作为我们集群中的唯1服务器,我们指定它运行在server模式下。

-bootstrap-expect 标志暗示Consul服务器我们会有其它的服务节点将会加入。这个标志的目的是延迟复制日志的引导直到预期的服务节点成功加入。你可以在引导教程里查阅到更多的信息。

最后,我们增加 config-dir,指定将在哪里可以找到服务和检查定义。

所有的标志都指定后,将这些设置加入 consul ageng 命令行:

vagrant@n1:~$ consul agent -server -bootstrap-expect 1 \ -data-dir /tmp/consul -node=agent-one -bind=172.20.20.10 \ -config-dir /etc/consul.d ...

现在,在另外一终端里,我们连接到第2个节点:

$ vagrant ssh n2

这次,我们设置 绑定地址 是第2个节点的IP地址。由于该节点将不会是1个Consul的服务器,所以我们不指定它启动为服务器模式。

所有的标志都指定后,将这些设置加入 consul ageng 命令行:

vagrant@n2:~$ consul agent -data-dir /tmp/consul -node=agent-two \ -bind=172.20.20.11 -config-dir /etc/consul.d ...

这时候,我们已有了两个Consul代理在运行:1个服务器和1个客户端。这两个Consul代理现在还对彼此没有任何感知,它们都为两个单节点的集群。你可以运行 consul members 来验证它们,每一个集群都仅包括1个成员。

加入集群

现在,我们将告知第1个代理加入第2个代理,在1个新的终端中运行以下命令:

$ vagrant ssh n1 ... vagrant@n1:~$ consul join 172.20.20.11 Successfully joined cluster by contacting 1 nodes.

你应当可以在各自的代理日志中看到1些日志的输出。如果你仔细的查看,你将会看到有节点加入的日志信息。如果你再次运行consul members,你会看到两个代理都已感知到了另外一个节点的存在。

vagrant@n2:~$ consul members Node Address Status Type Build Protocol agent-two 172.20.20.11:8301 alive client 0.5.0 2 agent-one 172.20.20.10:8301 alive server 0.5.0 2

记住:为了加入1个集群,1个Consul代理只需要知道1个现有的成员。在加入指定的集群后,各个代理睬相互传播完全的成员信息。

启动时自动加入1个集群

理想情况下,不管甚么时候1个新的节点加入了你的数据中心中,它应当自动地加入Consul集群而无需手动操作。为了到达这个目的,你可使用Atlas by HashiCorp并且指定 -atlas-join 标志。下面就是1个配置例子:

$ consul agent -atlas-join \ -atlas=ATLAS_USERNAME/infrastructure \ -atlas-token="YOUR_ATLAS_TOKEN"

这需要1个Atlas的用户名和token,在这里创建帐号,然后在你的Consul配置中使用你认证信息的替换各自的值。现在,不管什么时候1个通过Consul代理启动的节点加入,它将自动加入你的Consul集群而无需硬编码任何的配置信息。

另外一个可以选择的是,你可以在启动的时候使用 -join 标志或 start_join 指定1个已知Consul代理的地址来加入1个集群。

查询节点

就像查询服务1样,Consul有1个API用户查询节点信息。你可以通过DNS或HTTP API来查询。

对DNS API,名称结构是 NAME.node.consul 或 NAME.node.DATACENTER.consul。 如果数据中心被移除,Consul将仅仅查询本地数据中心。

例如,从“agent-one”,我们可以查询节点"agent-two"的地址:

vagrant@n1:~$ dig @127.0.0.1 -p 8600 agent-two.node.consul ... ;; QUESTION SECTION: ;agent-two.node.consul. IN A ;; ANSWER SECTION: agent-two.node.consul. 0 IN A 172.20.20.11

这类查找节点的能力对系统管理任务而言是非常有用的。例如知道了节点的地址,我们可使用ssh登录到该节点并且可以非常容易地使得该节点成为Consul集群中的1部份并且查询它。

离开集群

为了离开指定的集群,你可以优雅地退出1个代理(使用 Ctrl-C)或强迫杀死代理进程。优雅地离开可使得节点转换成离开状态;其它情况下,其它的节点检测这个节点将失败。其不同的地方在这里有详细的描写。

下1步

现在有了1个多节点的Consul集群已启动并且运行着。让我们通过[健康检测]()使我们的服务具有更强的鲁棒性。

Part 2:根据Part1、Windows安装Linux虚拟机(CentOS7)及Consul入门01-03,我们使用虚拟机来实现集群(3台:3台机器才能满足基础的集群,当有1台主服务退出时,另外两台重新选举新的主服务)。

1、启动3台虚拟机,为了方便演示,我这边使用PUTTY来分别连接这3台机器,并统1使用root登录。


2、为了方便演示,我们分别将3台机器上的web.json中的serviceName重新命名为web、web1、web2(可以1开始的时候就这么命名或使用vi编辑器),并分别在3台机器上运行consul
我们先将consul定义为server(服务器模式):
consul agent -server -bootstrap-expect 1 -data-dir /tmp/consul/ -node=web -bind=192.168.240.129 -config-dir /etc/consul.d/
另外两台机器使用以下命令启动(不将他们定义为服务器模式):
consul agent -data-dir /tmp/consul/ -node=web1 -bind=192.168.240.130 -config-dir /etc/consul.d/
consul agent -data-dir /tmp/consul/ -node=web2 -bind=192.168.240.131 -config-dir /etc/consul.d/

启动好以后,我们会发现,非server的两台机器web1和web2会时不时的在控制台输出信息,这是由于还没有加入到web的server中,没有找到集群的主服务,不用担心,我们继续看:



3、再打开3个putty客户端(上下匹配:左上1是web的consul server,左下1是新开的web putty客户端),并分别在里面运行consul members查看集群内成员,此时只能分别查看到本机的信息,type分别为server和client:


4、加入集群:
1个consul agent就是1个独立的程序。1个长时间运行的守护进程,运行在concul集群中的每一个节点上。
启动1个consul agent ,只是启动1个孤立的node,如果想知道集群中的其他节点,应当将consul agent加入到集群中去 cluster。
agent有两种模式:server与client。server模式包括了1致性的工作:保证1致性和可用性(在部份失败的情况下),响应RPC,同步数据到其他节点代理。
client 模式用于与server进行通讯,转发RPC到服务的代理agent,它仅保存本身的少许1些状态,是非常轻量化的东西。本身是相对无状态的。
agent除去设置server/client模式、数据路径以外,还最好设置node的名称和ip。

在web1和web2的client机器上,使用consul join IP加入consul server,我这里是这样的:
consul join 192.168.240.129


5、加入集群后,再次使用consul members 我们发现,集群中的机器已可以相互发现了。1个server,其它是client:




Part 3:Server之间的leader自动选举功能:这次我们需要4台机器,其中web、web1、web2都定义为server,1台client。(虚拟机安装及基本配置请看:Windows安装Linux虚拟机(CentOS7)及Consul入门01-03


1开始学习consul, 我们需要让consul 运行起来。consul server推荐最少在3~5个之间,推荐的方法是1开始启动其中1台server,并且配置到bootstrap的模式,该模式node可以指定自己作为leader,而不用进行选举。然后再顺次启动其他server,配置为非bootstrap的模式。最后把第1个serverbootstrap模式停止,重新以非bootstrap模式启动,这样server之间就能够自动选举leader。

web:

consul agent -server -bootstrap -data-dir /tmp/consul -node=web


web1、web2:用以下命令启动consul,不需要带bootstrap 选项:

consul agent -server -data-dir /tmp/consul -node=web1 consul agent -server -data-dir /tmp/consul -node=web2

PS:3台server都启动以后,会发现web1和web2在控制台也会有消息更新,提示NO cluster leader,说明没法选举leader,分别查看各自的集群信息时,也是没法相互查看的。



web1、web2需要加入到web的集群中:consul join 192.168.240.129:



当3台server都加入到集群,我们需要配置这3台机子为同等的server,并且让它们自己选择leader,这时候可以停止第1台(web)的consul,然后运行以下命令:

consul agent -server -data-dir /tmp/consul -node=web
consul join 192.168.240.130



PS:此时,我们在每台机子上输入consul info,我们会发现此时的leader是web2;我们并没有指定,是集群自己选择的:




这时候,我们摹拟异常或服务器退出,将web2关闭,这时候我们再次输入consul info会发现,web和web1自动选举了web作为leader:



最后,将client机器连入集群,就是1个小型的完全集群了。

参考文章:http://www.cnblogs.com/yatingyang/p/4495098.html

Part 4:已组建过的集群服务器,在退出集群以后,将没法加入之前的cluster中,而是照旧如第1次启动那样,看不到peers。

参考地址:http://tonybai.com/2015/07/06/implement-distributed-services-registery-and-discovery-by-consul/?utm_source=tuicool&utm_medium=referral

问题描写:我这边由于电脑重启了,所以集群就都退出了,但是依照上面的步骤,没法重新组建集群,没法选出leader,通过info命令看,两个节点都变成了Follower,集群依然处于无leader状态。

问题解释:这个问题在consul的github repository issues中被对人次提及,但作者似乎不将此作为bug。产生这个问题的缘由是当server退出时,consul会将/tmp/consul/raft/peers.json的内容由["192.168.240.129:8300","192.168.240.130:8300","192.168.240.131:8300"]=====改成=====》》》》null.当server重启后,该文件并未改变,照旧为null,所以没法重新弄自动join到cluster中,也就没法选取leader了。

问题解决:打开对应的serve中/tmp/consul/raft/peers.json文件,将内容统1修改成["192.168.240.129:8300","192.168.240.130:8300","192.168.240.131:8300"],然后重启,使用-rejoin命令加入集群或重复Part3中的步骤便可。








生活不易,码农辛苦
如果您觉得本网站对您的学习有所帮助,可以手机扫描二维码进行捐赠
程序员人生
------分隔线----------------------------
分享到:
------分隔线----------------------------
关闭
程序员人生