Docker 新网络 overlay 网络

时间:2022-09-12 11:12:14

Overlay网络是指在不改变现有网络基础设施的前提下,通过某种约定通信协议,把二层报文封装在IP报文之上的新的数据格式。

这样不但能够充分利用成熟的IP路由协议进程数据分发,而且在Overlay技术中采用扩展的隔离标识位数,能够突破VLAN的4000数量限制,

支持高达16M的用户,并在必要时可将广播流量转化为组播流量,避免广播数据泛滥。

因此,Overlay网络实际上是目前最主流的容器跨节点数据传输和路由方案。

Overlay网络的实现方式可以有许多种,其中IETF(国际互联网工程任务组)制定了三种Overlay的实现标准

1. 虚拟可扩展LAN(VXLAN)

2. 采用通用路由封装的网络虚拟化(NVGRE)

3. 无状态传输协议(SST)

Docker内置的Overlay网络是采用IETF标准的VXLAN方式,并且是VXLAN中普遍认为最适合大规模的云计算虚拟化环境的SDN Controller模式。

Docker的Overlay网络功能与其Swarm集群是紧密整合的,因此为了使用Docker的内置跨节点通信功能,最简单的方式就是采纳Swarm作为集群的解决方案。

在 docker 1.9 中,要使用 Swarm + overlay 网络架构,还需要以下几个条件:

1. 所有Swarm节点的Linux系统内核版本不低于3.16  (在 docker 1.10 后面版本中,已经支持内核3.10,升级内核实在是一个麻烦事情)

2. 需要一个额外的配置存储服务,例如Consul、Etcd或ZooKeeper

3. 所有的节点都能够正常连接到配置存储服务的IP和端口

4. 所有节点运行的Docker后台进程需要使用『--cluster-store』和『--cluster-advertise』参数指定所使用的配置存储服务地址

-------------------------------------------------------------------------------------------

服务器3台 如下:

10.6.17.12

10.6.17.13

10.6.17.14

------------------------------------------------------------------------------------------

docker version

Client:

Version:      1.10.0-rc1

API version:  1.22

Go version:   go1.5.3

Git commit:   677c593

Built:        Fri Jan 15 20:50:15 2016

OS/Arch:      linux/amd64

------------------------------------------------------------------------------------------

首先要做的是 修改主机名

10.6.17.12 管理节点可不修改

10.6.17.13  = hostnamectl --static set-hostname swarm-node-1

10.6.17.14  = hostnamectl --static set-hostname swarm-node-2

------------------------------------------------------------------------------------------

上面的4个条件中,第一个条件在docker 1.10 RC 版本中已经默认就满足了。

下面我们来创建第二个条件中的 配置存储服务,配置存储服务按照大家的使用习惯,自己选择一个配置存储。

由于我们java 项目一直在使用 ZooKeeper ,所以这边选择 ZooKeeper 作为存储服务,为了方便测试,这边只配置 单机的 ZooKeeper 服务

-------------------------------------------------------------------------------------------

pull 一个 centos 的镜像下来

[10.6.17.12]# docker pull centos

以下是 zookeeper 的 Dockerfile

-------------------------------------------------------------------------------------------

FROM centos

MAINTAINER jicki@qq.com

USER root

# 添加erepo 源

RUN rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org && rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm

RUN yum -y install --enablerepo base wget java tar.x86_64 && mkdir -p /opt/local && wget -q -O - http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz | tar -xzf - -C /opt/local/ && mv /opt/local/zookeeper-3.4.6 /opt/local/zookeeper && cp /opt/local/zookeeper/conf/zoo_sample.cfg /opt/local/zookeeper/conf/zoo.cfg && mkdir -p /opt/local/zookeeper/data && mkdir -p /opt/local/zookeeper/log

ENV JAVA_HOME /usr/

ADD start.sh /start.sh

WORKDIR /opt/local/zookeeper

#修改配置文件

RUN sed -i 's/dataDir=\/tmp\/zookeeper/dataDir=\/opt\/local\/zookeeper\/data/g' /opt/local/zookeeper/conf/zoo.cfg

ENTRYPOINT ["/start.sh"]

# 保证前台运行

CMD ["start-foreground"]

-------------------------------------------------------------------------------------------

[10.6.17.12]# docker build -t="zookeeper" .

[10.6.17.12]# docker run --restart=always -d -v /opt/data/zookeeper/data:/opt/local/zookeeper/data -v /opt/data/zookeeper/log:/opt/local/zookeeper/log -p 2181:2181 zookeeper

zookeeper 创建完以后,需要修改每个主机Docker后台进程启动脚本里的变量内容,并配置swarm节点.

[10.6.17.12]# sed -i 's/-H fd:\/\//-H tcp:\/\/10.6.17.12:2375 --cluster-store=zk:\/\/10.6.17.12:2181/store --cluster-advertise=10.6.17.12:2376/g' /lib/systemd/system/docker.service

[10.6.17.13]# sed -i 's/-H fd:\/\//-H tcp:\/\/10.6.17.13:2375 --cluster-store=zk:\/\/10.6.17.12:2181/store --cluster-advertise=10.6.17.13:2376/g' /lib/systemd/system/docker.service

[10.6.17.14]# sed -i 's/-H fd:\/\//-H tcp:\/\/10.6.17.14:2375 --cluster-store=zk:\/\/10.6.17.12:2181/store --cluster-advertise=10.6.17.14:2376/g' /lib/systemd/system/docker.service

修改完 变量内容,执行

systemctl daemon-reload

并 重启 docker

systemctl restart docker.service

由于修改和重启Docker后台进程本身是比较麻烦的事情,如果用户业务可能会使用到跨节点网络通信,建议在架设Docker集群的时候就事先准备配置存储服务,然后直接在添加主机节点时就可以将相应参数加入到Docker的启动配置中了。

接下来创建Overlay网络,我们要建的这个网络是横跨所有节点的,也就是说在每个节点都应该有一个名称、ID和属性完全一致的网络,它们之间还要相互认可对方为自己在不同节点的副本。如何实现这种效果呢?目前的Docker network命令还无法做到,因此只能借助于Swarm,下面我们创建Swarm 群集

首先我们选择 10.6.17.12 这台机器做为 master 节点 创建 swarm:

[10.6.17.12]# docker -H tcp://10.6.17.12:2375 run --name master --restart=always -d -p 8888:2375 swarm manage zk://10.6.17.12:2181/swarm

在其他两台Docker业务容器运行的节点上运行Swarm Agent服务:

[10.6.17.13]# docker -H tcp://10.6.17.13:2375 run --name node_1 --restart=always -d swarm join --addr=10.6.17.13:2375 zk://10.6.17.12:2181/swarm

[10.6.17.14]# docker -H tcp://10.6.17.14:2375 run --name node_2 --restart=always -d swarm join --addr=10.6.17.14:2375 zk://10.6.17.12:2181/swarm

查看所有节点上的信息:

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 ps -a

CONTAINER ID        IMAGE               COMMAND                  CREATED                  STATUS                  PORTS               NAMES

5fc7753caa2c        swarm               "/swarm join --addr=1"   Less than a second ago   Up Less than a second   2375/tcp            swarm-node-1/node_1

330b964ba732        swarm               "/swarm join --addr=1"   Less than a second ago   Up Less than a second   2375/tcp            swarm-node-2/node_2

至此 swarm 集群已经搭建完成了。

Swarm提供与Docker服务完全兼容的API,因此可以直接使用docker命令进行操作。

注意上面命令中创建Master服务时指定的外部端口号8888,它就是用来连接Swarm服务的地址。

现在我们就可以创建一个Overlay类型的网络了:

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 network create --driver=overlay ovr0

这个命令被发送给了Swarm服务,Swarm会在所有Agent节点上添加一个属性完全相同的Overlay类型网络。

在每个节点上面 使用 docker network ls  可以查看 到已经有一个  ovr0  的 overlay 网络

在Swarm的网络里面,每个网络的名字都会加上节点名称作为前缀,

如: swarm-node-1/node_1

swarm-node-2/node_2

但Overlay类型的网络是没有这个前缀的,这也说明了这类网络是被所有节点共有的。

下面我们在Swarm中创建两个连接到Overlay网络的容器,并用Swarm的过滤器限制这两个容器分别运行在不同的节点上。

-------------------------------------------------------------------------------------------

FROM centos

MAINTAINER jicki@qq.com

RUN yum -y update; yum clean all

RUN yum -y install epel-release; yum clean all

RUN yum -y install wget; yum clean all

ADD ./nginx.sh /root/

RUN /bin/bash /root/nginx.sh

RUN rm -rf /root/nginx.sh

RUN rm -rf /opt/local/nginx/conf/nginx.conf

ADD ./nginx.conf /opt/local/nginx/conf/

RUN mkdir -p /opt/local/nginx/conf/vhost

ADD ./docker.conf /opt/local/nginx/conf/vhost

RUN chown -R upload:upload /opt/htdocs/web

EXPOSE 80 443

CMD ["/opt/local/nginx/sbin/nginx", "-g", "daemon off;"]

-------------------------------------------------------------------------------------------

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_1 --net ovr0 --env="constraint:node==swarm-node-1" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_2 --net ovr0 --env="constraint:node==swarm-node-2" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx

创建完两个容器以后,下面来来测试一下 ovr0 这个网络的连通性

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 exec -it nginx_web_1 ping nginx_web_2

PING nginx_web_2 (10.0.0.3) 56(84) bytes of data.

64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=1 ttl=64 time=0.360 ms

64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=2 ttl=64 time=0.247 ms

64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=3 ttl=64 time=0.234 ms

64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=4 ttl=64 time=0.241 ms

64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=5 ttl=64 time=0.212 ms

如上所示 我们已经在Docker的Overlay网络上成功的进行了跨节点的数据通信。

测试两个 ssh 的服务,创建两个 容器,查看容器所属 IP 。

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name ssh-1 --net ovr0 --env="constraint:node==swarm-node-1" -d -p 8001:22 ssh

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name ssh-2 --net ovr0 --env="constraint:node==swarm-node-2" -d -p 8001:22 ssh

创建容器 IP 为  DHCP 分配, 按照从下向上分配, 重启不会改变overlay 的IP 。

首先创建 ssh-1 分配IP为 10.0.0.4    创建 ssh-2 分配IP为 10.0.0.5

销毁 ssh-1 再次创建 分配IP 为 10.0.0.4

销毁 ssh-1  ssh-2  先创建 ssh-2 分配 IP 为 10.0.0.4

在 docker 1.10 后面的版本中 --net-alias=[]  的使用!!

在docker run 的时候 可指定相同的 alias ,可以实现 故障切换的效果。。

具体命令如:

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_1 --net ovr0 --net-alias="nginx" --env="constraint:node==swarm-node-1" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx

[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_2 --net ovr0 --net-alias="nginx" --env="constraint:node==swarm-node-2" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx

当我们进入 机器里面的时候 使用 dig 查看 nginx A记录 看到的是一个,但是 一个容器 挂掉以后

A记录会自动绑定到另外一台机器中。

在 docker 1.11 后面的版本中 --net-alias=[] 已经支持 负载均衡。

当我们使用 dig 查看 A记录 时可以看到多个 A记录

docker network disconnect  与  docker network connect 命令的使用! 使用这两个命令可达到 A B 测试 以及 快速 回滚 的效果。

docker network connect      ---->  加入 指定网络

docker network disconnect   ---->  退出 指定网络

具体命令使用:

docker network disconnect ovr0 nginx_web_2       nginx_web_2 这个容器退出 ovr0 这个网络。

docker network connect ovr0 nginx_web_2          nginx_web_2 这个容器重新加入 ovr0 这个网络。

Docker 新网络 overlay 网络的更多相关文章

  1. Docker Swarm 创建overlay网络

    Docker Swarm 创建overlay网络 环境: 系统:Centos 7.4 x64 应用版本:Docker 18.09.0 管理节点:192.168.1.79 工作节点:192.168.1. ...

  2. docker 使用swarm overlay网络时,报“network xx not manually attachable”错误解决

    当使用swarm的overlay网络,在该网络中运行容器时报“network xx not manually attachable”的错误 docker network create -d overl ...

  3. centos7下安装docker(15.2跨主机网络-overlay)

    为支持容器跨主机通信,Docker提供了overlay driver,使用户可以创建基于VxLAN的overlay网络.VxLAN可将二层数据封装到UDP进行传输,VxLAN提供与VLAN相同的以太网 ...

  4. Docker 跨主机网络 overlay(十六)

    目录 一.跨主机网络概述 二.准备 overlay 环境 1.环境描述 2.创建 consul 3.修改 docker 配置文件 4.准备就绪 三.创建 overlay 网络 1.在 host1 中创 ...

  5. Overlay网络技术之vxvlan

    了解云计算数据中心网络架构的过程中,看到这么一篇不错的关于大二层技术overlay的文章,转载分享给大家! 一. 传统网络面临的问题 随着企业业务的快速扩展需求,IT做为基础设施,快速部署和减少投入成 ...

  6. 跨主机网络overlay和macvlan模型

    overlay网络模型 无论是openstack还是docker都是先创建一个网络然后再创建虚机或者容器  并把创建的虚机或者容器运行在此网络中 Docker 提供了 overlay driver,使 ...

  7. 数据中心网络架构的问题与演进 — Overlay 网络

    目录 文章目录 目录 前文列表 数据中心网络架构演进回顾 Overlay 网络 Overlay 网络的优势 基于 VxLAN Overlay 的 Spine-Leaf 网络架构 参考文章 前文列表 & ...

  8. 创建 overlay 网络 - 每天5分钟玩转 Docker 容器技术(50)

    上一节我们搭建好实验环境,配置并运行了consul,今天开始创建 overlay 网络. 在 host1 中创建 overlay 网络 ov_net1: -d overlay 指定 driver 为 ...

  9. docker应用-5(使用overlay 网络进行容器间跨物理主机通信)

    同一个主机上的Docker容器之间通信 docker 引擎会在主机上增加一个docker0网卡,该网卡具有双重身份: 1.从容器视角,网桥(交换机)身份docker0 对于运行在同一个主机上的各个容器 ...

随机推荐

  1. QT中的C/S通信问题:关于服务器端readyread()信号不发射

    在windows下用QT测试C/S通信的时候,遇到服务器端不能读取客户端发来的数据的问题. 后来设置断点检查错误,发现是readyread信号不触发的原因. 后来在客户端写socket后面加了一句so ...

  2. jshint创建配置文件

    在项目中创建文件,并必须以 .jshintrc 命名: 例如 {    "eqeqeq":true,     "curly":true}

  3. Oracle DB 分区特性概述 Overview of Partitions

    概述:在Oracle数据库中,分区(partitioning)可以使非常大的表(table)或索引(index)分解为小的易管理的块(pieces),这些块被称作分区(partitions).每个分区 ...

  4. iOS H5容器的一些探究(一):UIWebView和WKWebView的比较和选择

    一.Native开发中为什么需要H5容器 Native开发原生应用是手机操作系统厂商(目前主要是苹果的iOS和google的Android)对外界提供的标准化的开发模式,他们对于native开发提供了 ...

  5. [LeetCode] 128. Longest Consecutive Sequence 解题思路

    Given an unsorted array of integers, find the length of the longest consecutive elements sequence. F ...

  6. 上传图片转为base64格式预览并压缩图片(不兼容IE9以下浏览器,兼容移动端ios,android)

    前些天公司要求在微信移动端做上传图片并预览的功能,要求能够调用摄像头拍照并立即预览. 在网上搜了一些方法,开始自己写了个简单的功能实现代码.结果发现移动端拍照出来的图片动不动就2M+,又因为要批量上传 ...

  7. 2019.04.23 Scrapy框架

    1.环境搭建 2.选择需要的.whl文件下载,一般选择最后的,感觉意思是最近更新的包,以下是.whl文件下载链接地址: http://www.lfd.uci.edu/~gohlke/pythonlib ...

  8. Oracle使用JDBC进行增删改查 表是否存在

    Oracle使用JDBC进行增删改查 数据库和表 table USERS (   USERNAME VARCHAR2(20) not null,   PASSWORD VARCHAR2(20) ) a ...

  9. 洛谷.T21778.过年(线段树 扫描线)

    题目链接或者这吧.. 被数据坑了 /* 操作按左端点排个序 依次进行即可 不是很懂 为什么不写Build 而在Add时改mp[rt]=p 会WA(too short on line 251..) 找到 ...

  10. Pl/sql 如何将oracle的表数据导出成excel文件?

    oracle将表数据导出成excel文件的方法 1)在SQL窗体上,查询需要导出的数据 --查询数据条件-- ; 结果视图 2)在查询结果的空白处,右键选择Copy to Excel 3) 查看导出e ...