K8s 之微服务的定义及详细资源调用案例

什么是微服务

用控制器来完成集群的工作负载,那么应用如何暴漏出去?

需要通过微服务暴漏出去后才能被访问

  • Service是一组提供相同服务的Pod对外开放的接口。
  • 借助Service,应用可以实现服务发现和负载均衡。
  • service默认只支持4层负载均衡能力,没有7层功能。(可以通过Ingress实现)

在这里插入图片描述

微服务的类型

微服务类型作用描述
ClusterIP默认值,k8s系统给service自动分配的虚拟IP,只能在集群内部访问
NodePort将Service通过指定的Node上的端口暴露给外部,访问任意一个NodeIP:nodePort都将路由到ClusterIP
LoadBalancer在NodePort的基础上,借助cloud provider创建一个外部的负载均衡器,并将请求转发到 NodeIP:NodePort,此模式只能在云服务器上使用
ExternalName将服务通过 DNS CNAME 记录方式转发到指定的域名(通过 spec.externlName 设定

创建一个微服务

1、生成控制器文件并建立控制器

[root@k8s-master ~]# kubectl create deployment test --image myapp:v1  --replicas 2 --dry-run=client -o yaml > test.yml[root@k8s-master yaml]# kubectl apply -f test.yml

2、生成微服务yaml追加到已有yaml中(当控制器存在并运行时才可追加成功)

[root@k8s-master ~]# kubectl expose deployment test --port 80 --target-port 80 --dry-run=client -o yaml >> test.yml

3、编辑微服务的yml文件

[root@k8s-master ~]# vim test.yaml
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: testname: test
spec:replicas: 2selector:matchLabels:app: testtemplate:metadata:creationTimestamp: nulllabels:app: testspec:containers:- image: myapp:v1name: myapp
---		#不同资源间用---隔开apiVersion: v1
kind: Service
metadata:labels:app: testname: test
spec:ports:- port: 80protocol: TCPtargetPort: 80selector:app: test

4、重新加载和查看微服务的信息:

[root@k8s-master ~]# kubectl apply  -f test.yaml[root@k8s-master ~]# kubectl get services

在这里插入图片描述

微服务默认使用iptables调度

[root@k8s-master ~]# kubectl get services  -o wide#可以在火墙中查看到策略信息
[root@k8s-master ~]# iptables -t nat -nL

ipvs模式

  • Service 是由 kube-proxy 组件,加上 iptables 来共同实现的
  • kube-proxy 通过 iptables 处理 Service 的过程,需要在宿主机上设置相当多的 iptables 规则,如果宿主机有大量的Pod,不断刷新iptables规则,会消耗大量的CPU资源
  • IPVS模式的service,可以使K8s集群支持更多量级的Pod

ipvs模式配置方式

1、在所有节点中安装ipvsadm

[root@k8s-master ~]# yum install ipvsadm –y

2、修改master节点的代理配置

[root@k8s-master ~]# kubectl -n kube-system edit cm kube-proxy
......metricsBindAddress: ""mode: "ipvs"	#设置kube-proxy使用ipvs模式nftables:
......

在这里插入图片描述

3 、重启pod,在pod运行时配置文件中采用默认配置,当改变配置文件后已经运行的pod状态不会变化,所以要重启pod

[root@k8s-master ~]# kubectl -n kube-system get  pods   | awk '/kube-proxy/{system("kubectl -n kube-system delete pods "$1)}'[root@k8s-master ~]# ipvsadm -Ln

在这里插入图片描述

切换ipvs模式后,kube-proxy会在宿主机上添加一个虚拟网卡:kube-ipvs0,并分配所有service IP

[root@k8s-master ~]# ip a 

在这里插入图片描述

微服务类型详解

clusterip

特点

clusterip模式只能在集群内访问,并对集群内的pod提供健康检测和自动发现功能

1、修改yml文件

[root@k8s-master yaml]# vim clusterip.yml
apiVersion: apps/v1
kind: Deployment
metadata:name: tym
spec:replicas: 2selector:matchLabels:app: tymtemplate:metadata:labels:app: tymspec:containers:- image: myapp:v1name: myapp---
apiVersion: v1
kind: Service
metadata:name: tym
spec:ports:- port: 80protocol: TCPtargetPort: 80selector:app: tymtype: ClusterIP[root@k8s-master yaml]# vim clusterip.yml

2、service创建后集群DNS提供解析

[root@k8s-master metallb]# kubectl -n kube-system get svc
#查看clusterip[root@k8s-master ~]# dig tym.default.svc.cluster.local @10.96.0.10
#查看服务的集群解析详情

在这里插入图片描述
集群 DNS 自动解析:

在这里插入图片描述

clusterip 中的特殊模式 headless

headless(无头服务)

对于无头 Services 并不会分配 Cluster IP,kube-proxy不会处理它们, 而且平台也不会为它们进行负载均衡和路由,集群访问通过dns解析直接指向到业务pod上的IP,所有的调度有dns单独完成

[root@k8s-master ~]# vim clusterip-head.yml.yaml
apiVersion: apps/v1
kind: Deployment
metadata:name: tym
spec:replicas: 2selector:matchLabels:app: tymtemplate:metadata:labels:app: tymspec:containers:- image: myapp:v1name: myapp---
apiVersion: v1
kind: Service
metadata:name: tym
spec:ports:- port: 80protocol: TCPtargetPort: 80selector:app: tymtype: ClusterIPclusterIP: None	#无头模式[root@k8s-master ~]# kubectl apply -f clusterip-head.yml.yaml

查看服务的集群解析:

[root@k8s-master yaml]# dig tym.default.svc.cluster.local @10.96.0.10

在这里插入图片描述

效果演示:

创建一个pod,在容器内直接访问微服务,查看解析之后返回的结果

[root@k8s-master ~]# kubectl run test --image busyboxplus -it
......
/ # curl tym

在这里插入图片描述

nodeport

通过ipvs暴漏端口从而使外部主机通过master节点的对外ip:来访问pod业务

在这里插入图片描述

nodeport 在集群节点上绑定端口,一个端口对应一个服务

nodeport默认端口是30000-32767,超出会报错

如果需要配置默认范围外的端口号,需要修改k8s的配置文件

1、编辑k8s的配置文件

[root@k8s-master ~]# vim /etc/kubernetes/manifests/kube-apiserver.yaml
......
- --service-node-port-range=30000-40000
......

在这里插入图片描述

2、编辑 nodeport 控制器的 yml 文件

[root@k8s-master yaml]# vim nodeport.yml
apiVersion: apps/v1
kind: Deployment
metadata:name: tym
spec:replicas: 2selector:matchLabels:app: nodeporttemplate:metadata:labels:app: nodeportspec:containers:- image: myapp:v1name: myapp---
apiVersion: v1
kind: Service
metadata:name: nodeport
spec:ports:- port: 80protocol: TCPnodePort: 33333selector:app: nodeporttype: NodePort[root@k8s-master yaml]# kubectl apply -f nodeport.yml

效果演示:

[root@k8s-master yaml]# kubectl get services nodeport

在这里插入图片描述

loadbalancer

云平台会为我们分配vip并实现访问,如果是裸金属主机那么需要metallb来实现ip的分配

loadbalancer 微服务的访问过程:

在这里插入图片描述

LoadBalancer模式适用云平台,裸金属环境需要安装metallb提供支持

[root@k8s-master ~]# vim timinglee.yaml
apiVersion: apps/v1
kind: Deployment
metadata:name: loadbalancer
spec:replicas: 2selector:matchLabels:app: loadbalancertemplate:metadata:labels:app: loadbalancerspec:containers:- image: myapp:v1name: myapp---
apiVersion: v1
kind: Service
metadata:name: loadbalancer
spec:ports:- port: 80protocol: TCPtargetPort: 80selector:app: loadbalancertype: LoadBalancer[root@k8s-master yaml]# kubectl apply -f loadbalancer.yml默认无法分配外部访问IP
[root@k8s2 service]# kubectl get svc
NAME         TYPE           CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
kubernetes   ClusterIP      10.96.0.1       <none>        443/TCP        4d1h
myapp        LoadBalancer   10.107.23.134   <pending>     80:32537/TCP   4s

metalLB

官网:https://metallb.universe.tf/installation/

在这里插入图片描述

MetalLB是一个负载均衡器,专门解决裸金属Kubernetes集群中无法使用LoadBalancer类型服务的问题。

它有两个主要功能:地址分配,为LoadBalancer Service分配lP地
址;外部声明,让集群外的网络知道这个地址的存在;为LoadBalancer分配vip

部署方式

1、设置ipvs模式

[root@k8s-master ~]# kubectl edit cm -n kube-system kube-proxy
...strictARP: true
...
mode: "ipvs"
...

在这里插入图片描述

2、将修改的配置生效

[root@k8s-master ~]# kubectl -n kube-system get pods | awk '/kube-proxy/{system("kubectl -n kube-system delete pods "$1)}'

3、下载部署文件

[root@k8s2 metallb ~]# wget https://raw.githubusercontent.com/metallb/metallb/v0.13.12/config/manifests/metallb-native.yaml

在这里插入图片描述

4、修改metallb部署文件内容

[root@k8s-master ~]# vim metallb-native.yaml
......
image: metallb/controller:v0.14.8
......
image: metallb/speaker:v0.14.8
......

在这里插入图片描述

在这里插入图片描述

5、上传镜像到harbor仓库

[root@k8s-master metallb]# docker tag quay.io/metallb/controller:v0.14.8 reg.tym.org/metallb/controller:v0.14.8
[root@k8s-master metallb]# docker tag quay.io/metallb/speaker:v0.14.8 reg.tym.org/metallb/speaker:v0.14.8[root@k8s-master metallb]# docker push reg.tym.org/metallb/controller:v0.14.8
[root@k8s-master metallb]# docker push reg.tym.org/metallb/speaker:v0.14.8

6、部署服务

启用metallb服务:

[root@k8s-metallb ~]# kubectl apply -f metallb-native.yaml[root@k8s-master ~]# kubectl -n metallb-system get pods

在这里插入图片描述

配置分配地址段:

[root@k8s-master ~]# vim configmap.yml
apiVersion: metallb.io/v1beta1
kind: IPAddressPool
metadata:name: first-pool				#地址池名称namespace: metallb-system
spec:addresses:- 172.25.254.50-172.25.254.99	#修改为自己本地地址段---		#两个不同的kind中间必须加分割
apiVersion: metallb.io/v1beta1
kind: L2Advertisement
metadata:name: examplenamespace: metallb-system
spec:ipAddressPools:- first-pool					#使用的地址池 

重新加载文件:

[root@k8s-master ~]# kubectl apply -f configmap.yml

查看服务信息:

[root@k8s-master ~]# kubectl get services

在这里插入图片描述

#通过分配地址从集群外访问服务

[root@reg ~]# curl  172.25.254.51

在这里插入图片描述

externalname

  • 开启services后,不会被分配IP,而是用dns解析CNAME固定域名来解决ip变化问题
  • 一般应用于外部业务和pod沟通或外部业务迁移到pod内时
  • 在应用向集群迁移过程中,externalname在过度阶段就可以起作用了
  • 集群外的资源迁移到集群时,在迁移的过程中ip可能会变化,但是域名+dns解析能完美解决此问题
[root@k8s-master ~]# vim externalname.yml
apiVersion: apps/v1
kind: Deployment
metadata:name: externalname
spec:replicas: 2selector:matchLabels:app: externalnametemplate:metadata:labels:app: externalnamespec:containers:- image: myapp:v1name: myapp---
apiVersion: v1
kind: Service
metadata:name: externalname
spec:selector:app: externalnametype: ExternalNameexternalName: www.tym.org[root@k8s-master yaml]# kubectl apply -f externalname.yml[root@k8s-master ~]# kubectl get services

在这里插入图片描述

Ingress-nginx

官网:

https://kubernetes.github.io/ingress-nginx/deploy/#bare-metal-clusters

ingress-nginx 功能

在这里插入图片描述

  • 一种全局的、为了代理不同后端 Service 而设置的负载均衡服务,支持7层
  • Ingress由两部分组成:Ingress controller和Ingress服务
  • Ingress Controller 会根据你定义的 Ingress 对象,提供对应的代理能力
  • 业界常用的各种反向代理项目,比如 Nginx、HAProxy、Envoy、Traefik 等,都已经为Kubernetes 专门维护了对应的 Ingress Controller

部署 ingress

下载部署文件

[root@k8s-master ~]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.11.2/deploy/static/provider/baremetal/deploy.yaml

在这里插入图片描述

在这里插入图片描述

上传ingress所需镜像到harbor

[root@k8s-master ~]# docker tag registry.k8s.io/ingress-nginx/controller:v1.11.2 reg.tym.org/ingress-nginx/controller:v1.11.2
[root@k8s-master ~]# docker tag registry.k8s.io/ingress-nginx/kube-webhook-certgen:v1.4.3 reg.tym.org/ingress-nginx/kube-webhook-certgen:v1.4.3[root@k8s-master ~]# docker push reg.tym.org/ingress-nginx/controller:v1.11.2
[root@k8s-master ~]# docker push reg.tym.org/ingress-nginx/kube-webhook-certgen:v1.4.3

安装ingress

1、修改配置文件

[root@k8s-master ~]# vim deploy.yaml
...image: ingress-nginx/controller:v1.11.2
...image: ingress-nginx/kube-webhook-certgen:v1.4.3
...image: ingress-nginx/kube-webhook-certgen:v1.4.3
...

在这里插入图片描述

2、安装ingress-nginx

[root@k8s-master ingress]# kubectl apply -f deploy.yaml

在这里插入图片描述

3、查看ingress-nginx状态

[root@k8s-master ~]# kubectl -n ingress-nginx get pods[root@k8s-master ~]# kubectl -n ingress-nginx get svc

在这里插入图片描述

4、修改微服务为loadbalancer

[root@k8s-master ~]# kubectl -n ingress-nginx edit svc ingress-nginx-controller
...type: LoadBalancer...

在这里插入图片描述

5、查看其服务状态

[root@k8s-master ingress]# kubectl -n ingress-nginx get svc

在这里插入图片描述

在ingress-nginx-controller中看到的对外IP就是ingress最终对外开放的 ip

测试ingress

1、生成 yaml 文件

[root@k8s-master ~]# kubectl create ingress myappv1 --class nginx --rule='/=myappv1:80' --dry-run=client -o yaml > ingress1.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: myappv1
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv1	#该名称为已建立好的服务名称port:number: 80path: /pathType: Prefix
#Exact(精确匹配);ImplementationSpecific(特定实现);Prefix(前缀匹配);Regular expression(正则表达式匹配)

2、建立控制器

[root@k8s-master yaml]# kubectl apply -f ingress.yml

3、访问测试

[root@k8s-master yaml]# curl 172.25.254.50
#172.25.254.50为ingress对外IP地址

ingress必须和输出的service资源处于同一namespace

如果 ingress-nginx 的 yml 文件内的服务不存在,则会访问失败

在这里插入图片描述

ingress 的高级用法

基于路径的访问

1、建立用于测试的控制器myapp1,myappv2

生成 yml 文件:

[root@k8s-master yaml]# kubectl create deployment myappv1 --image myapp:v1 --dry-run=client -o yaml > myappv1.yaml[root@k8s-master yaml]# kubectl expose deployment myappv1 --port 80 --target-port 80 --dry-run=client -o yaml >> myappv1.yaml

编辑 yml 文件:

[root@k8s-master yaml]# vim myappv1.yml
apiVersion: apps/v1
kind: Deployment
metadata:name: myappv1
spec:replicas: 1selector:matchLabels:app: myappv1template:metadata:labels:app: myappv1spec:containers:- image: myapp:v1name: myappv1---
apiVersion: v1
kind: Service
metadata:name: myappv1
spec:ports:- port: 80protocol: TCPtargetPort: 80selector:app: myappv1

按照以上方法再次建立v2的版本

建立并运行两个微服务:

[root@k8s-master yaml]# kubectl apply -f myappv1.yml[root@k8s-master yaml]# kubectl apply -f myappv2.yml

在这里插入图片描述

2、建立ingress的yaml 文件

[root@k8s-master yaml]# vim ingress1.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:annotations:nginx.ingress.kubernetes.io/rewrite-target: /	#访问路径后加任何内容都被定向到/name: ingress1
spec:ingressClassName: nginxrules:- host: www.tym.orghttp:paths:- backend:service:name: myapp-v1port:number: 80path: /v1pathType: Prefix- backend:service:name: myapp-v2port:number: 80path: /v2pathType: Prefix

3、运行ingress服务

[root@k8s-master yaml]# kubectl apply -f ingress1.yml

4、添加本地解析

[root@k8s-master yaml]# vim /etc/hosts
...
172.25.254.50 www.tym.org

5、查看服务的详细信息

[root@k8s-master yaml]# kubectl describe ingress ingress1

在这里插入图片描述

6、测试

[root@k8s-master yaml]# curl www.tym.org/v2

在这里插入图片描述

基于域名的访问

1、在测试主机中设定解析

[root@k8s-master yaml]# vim /etc/hosts

在这里插入图片描述

2、建立基于域名的yaml文件

[root@k8s-master yaml]# vim ingress3.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:annotations:nginx.ingress.kubernetes.io/rewrite-target: /name: ingresss
spec:ingressClassName: nginxrules:- host: myappv1.tym.orghttp:paths:- backend:service:name: myappv1port:number: 80path: /pathType: Prefix- host: myappv2.tym.orghttp:paths:- backend:service:name: myappv2port:number: 80path: /pathType: Prefix

3、利用文件资源清单建立ingress

[root@k8s-master yaml]# kubectl apply -f ingress3.yml

在这里插入图片描述

4、查看其ingress的详细信息

[root@k8s-master yaml]# kubectl describe ingress

在这里插入图片描述

5、访问测试

[root@k8s-master yaml]# curl myappv1.tym.org[root@k8s-master yaml]# curl myappv2.tym.org

在这里插入图片描述

建立tls加密

1、建立证书

[root@k8s-master yaml]# openssl req -newkey rsa:2048 -nodes -keyout tls.key -x509 -days 365 -subj "/CN=nginxsvc/O=nginxsvc" -out tls.crt

在这里插入图片描述

2、建立加密资源类型secret

[root@k8s-master yaml]# kubectl create secret tls web-tls-secret --key tls.key --cert tls.crt[root@k8s-master app]# kubectl get secrets

secret通常在kubernetes中存放敏感数据,他并不是一种加密方式

在这里插入图片描述

3、建立资源清单基于tls认证的yml文件

[root@k8s-master yaml]# vim ingress4.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:annotations:nginx.ingress.kubernetes.io/rewrite-target: /name: ingresss
spec:tls:- hosts:- myappv1-tls.tym.org- myappv2-tls.tym.orgsecretName: web-tls-secret	#当通过以上域名访问时,自动定位至加密资源secretingressClassName: nginxrules:- host: myappv1-tls.tym.orghttp:paths:- backend:service:name: myappv1port:number: 80path: /pathType: Prefix- host: myappv2-tls.tym.orghttp:paths:- backend:service:name: myappv2port:number: 80path: /pathType: Prefix[root@k8s-master yaml]# kubectl apply -f ingress4.yml

4、测试

在测试主机内添加域名解析;通过浏览器进行访问测试

在这里插入图片描述

建立auth认证

1、建立认证文件

[root@k8s-master yaml]# dnf install httpd-tools -y
#下载安装认证工具[root@k8s-master yaml]# htpasswd -cm auth lee
#创建认证用户[root@k8s-master app]# cat auth

在这里插入图片描述

2、建立认证类型资源secret

[root@k8s-master app]# kubectl create secret generic auth-web --from-file authroot@k8s-master app]# kubectl describe secrets auth-web

在这里插入图片描述

3、建立资源清单基于用户认证的yaml文件

[root@k8s-master yaml]# vim ingress5.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: ingressannotations:nginx.ingress.kubernetes.io/auth-type: basic	#认证类型nginx.ingress.kubernetes.io/auth-secret: auth-web	#认证资源的名称nginx.ingress.kubernetes.io/auth-realme: "Please input username and passsword"
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv1port:number: 80path: /pathType: Prefixhost: www.tym.org[root@k8s-master app]# kubectl apply -f ingress4.yml

在这里插入图片描述

4、测试

[root@k8s-master yaml]# curl -k https://www.tym.org[root@reg ~]# curl -k https://www.tym.org -u tym:123

在这里插入图片描述

rewrite重定向

1、创建资源清单文件基于默认访问的文件到hostname.html上

[root@k8s-master yaml]# vim ingress6.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: ingressannotations:nginx.ingress.kubernetes.io/app-port: /hostname.html	#默认访问至该文件
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv1port:number: 80path: /pathType: Prefixhost: www.tym.org[root@k8s-master yaml]# kubectl apply -f ingress6.yml

在这里插入图片描述

2、测试

[root@k8s-master yaml]# curl www.tym.org

在这里插入图片描述

解决重定向路径问题

1、创建资源清单文件

[root@k8s-master yaml]# vim ingress6.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: ingressannotations:nginx.ingress.kubernetes.io/rewrite-target: /$2nginx.ingress.kubernetes.io/use-regex: "true"	#开启正则表达式
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv1port:number: 80path: /pathType: Prefix- backend:service:name: myappv1port:number: 80path: /tym(/|$)(.*)	#正则表达式匹配/tym/,/tym/apathType: ImplementationSpecific	#匹配类型为正则表达式host: www.tym.org[root@k8s-master yaml]# kubectl apply -f ingress6.yml

2、测试

[root@k8s-master yaml]# curl www.tym.org/aa[root@k8s-master yaml]# curl www.tym.org/aa/aa[root@k8s-master yaml]# curl www.tym.org/aa/aa/fdsfd

在这里插入图片描述

Canary 金丝雀发布

金丝雀发布简介

在这里插入图片描述

基于 Ingress-nginx 的一种发布方式

金丝雀发布(Canary Release)也称为灰度发布,是一种软件发布策略。

主要目的是在将新版本的软件全面推广到生产环境之前,先在一小部分用户或服务器上进行测试和验证,以降低因新版本引入重大问题而对整个系统造成的影响。

是一种Pod的发布方式。金丝雀发布采取先添加、再删除的方式,保证Pod的总量不低于期望值。并且在更新部分Pod后,暂停更新,当确认新Pod版本运行正常后再进行其他版本的Pod的更新。

Canary 发布方式

在这里插入图片描述

其中header和weiht中的最多

基于header(http包头)灰度发布

在这里插入图片描述

  • 通过Annotaion扩展
  • 创建灰度ingress,配置灰度头部key以及value
  • 灰度流量验证完毕后,切换正式ingress到新版本
  • 在做升级时可以通过控制器做滚动更新,默认25%利用header可以使升级更为平滑,通过key 和vule 测试新的业务体系是否有问题。

示例

1、建立版本为1的ingress(旧版本)

[root@k8s-master yaml]# vim ingress7.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: myappv1-canary
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv1port:number: 80path: /pathType: Prefix[root@k8s-master yaml]# kubectl apply -f ingress7.yml

2、建立版本为2的ingress(新版本)

[root@k8s-master yaml]# vim ingress8.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: myappv2-canaryannotations:nginx.ingress.kubernetes.io/canary: "true"nginx.ingress.kubernetes.io/canary-by-header: "version"	#设定其包头的键nginx.ingress.kubernetes.io/canary-by-header-value: "2"	#设定其包头的值
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv2port:number: 80path: /pathType: Prefix[root@k8s-master yaml]# kubectl apply -f ingress7.yml

在这里插入图片描述

3、测试

[root@k8s-master yaml]# curl 172.25.254.50[root@k8s-master yaml]# curl -H "version:2" 172.25.254.50

在这里插入图片描述

基于权重的灰度发布

在这里插入图片描述

  • 通过Annotaion拓展
  • 创建灰度ingress,配置灰度权重以及总权重
  • 灰度流量验证完毕后,切换正式ingress到新版本

示例

1、创建基于权重的灰度发布

[root@k8s-master yml]# vim ingress8.yml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: myappv2-canaryannotations:nginx.ingress.kubernetes.io/canary: "true"nginx.ingress.kubernetes.io/canary-weight: "10"	#设定其发布新版的权重,如果总权重为100,则发布的新版占百分之十nginx.ingress.kubernetes.io/canary-by-weight-total: "100"	#设定其总权重
spec:ingressClassName: nginxrules:- http:paths:- backend:service:name: myappv2port:number: 80path: /pathType: Prefix[root@k8s-master yml]# kubectl apply -f ingress8.yml

在这里插入图片描述

2、编写一个脚本进行测试其灰度发布的情况

[root@reg ~]# vim check_ingress.sh
#!/bin/bash
v1=0
v2=0for (( i=0; i<100; i++))
doresponse=`curl -s 172.25.254.50 |grep -c v1`v1=`expr $v1 + $response`v2=`expr $v2 + 1 - $response`done
echo "v1:$v1, v2:$v2"

观察其发布的情况

当发布权重为10时:

在这里插入图片描述

当发布权重为40时:

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/1542771.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

OpenCV特征检测(10)检测图像中直线的函数HoughLinesP()的使用

操作系统&#xff1a;ubuntu22.04 OpenCV版本&#xff1a;OpenCV4.9 IDE:Visual Studio Code 编程语言&#xff1a;C11 算法描述 在二值图像中使用概率霍夫变换查找线段。 该函数实现了用于直线检测的概率霍夫变换算法&#xff0c;该算法在文献 181中有所描述。 HoughLines…

JavaEE: 深入探索TCP网络编程的奇妙世界(五)

文章目录 TCP核心机制TCP核心机制六: 拥塞控制为什么要有拥塞控制?动态调整的拥塞控制拥塞控制中,窗口大小具体的变化过程 TCP核心机制七: 延时应答TCP核心机制八: 捎带应答 TCP核心机制 前一篇文章 JavaEE: 深入探索TCP网络编程的奇妙世界(四) 书接上文~ TCP核心机制六: 拥…

Parallels Desktop 20 for Mac 推出:完美兼容 macOS Sequoia 与 Win11 24H2

Parallels Desktop 20 for Mac 近日正式发布&#xff0c;这一新版本不仅全面支持 macOS Sequoia 和 Windows 11 24H2&#xff0c;还在企业版中引入了一个全新的管理门户。新版本针对 Windows、macOS 和 Linux 虚拟机进行了多项改进&#xff0c;其中最引人注目的当属 Parallels …

Python 入门(一、使用 VSCode 开发 Python 环境搭建)

Python 入门第一课 &#xff0c;环境搭建...... by 矜辰所致前言 现在不会 Python &#xff0c;好像不那么合适&#xff0c;咱先不求精通&#xff0c;但也不能不会&#xff0c;话不多说&#xff0c;开干&#xff01; 这是 Python 入门第一课&#xff0c;当然是做好准备工作&a…

计算机毕业设计 校园失物招领网站的设计与实现 Java实战项目 附源码+文档+视频讲解

博主介绍&#xff1a;✌从事软件开发10年之余&#xff0c;专注于Java技术领域、Python人工智能及数据挖掘、小程序项目开发和Android项目开发等。CSDN、掘金、华为云、InfoQ、阿里云等平台优质作者✌ &#x1f345;文末获取源码联系&#x1f345; &#x1f447;&#x1f3fb; 精…

嵌入式单片机STM32开发板详细制作过程--01

大家好,今天主要给大家分享一下,单片机开发板的制作过程,原理图的制作与PCB设计,以及电子元器件采购与焊接。 第一:单片机开发板成品展示 板子正面都有各个芯片的丝印与标号,方便焊接元器件的时候,可以参考。(焊接完成之后,成品图如下) 第二:开发板原理图制作 在制…

MATLAB中多张fig图合并为一个图

将下列两个图和为一个图 打开查看-----绘图浏览器 点击第一幅图中曲线右键复制&#xff0c;到第二幅图中粘贴即可完成

布草洗涤-酒店分楼层统计报表--———未来之窗行业应用跨平台架构

一、大酒店分层管理 1. 精准管理库存 - 能够清晰了解每个楼层布草的具体数量和状况&#xff0c;实现对布草库存的精细化管理&#xff0c;避免出现某些楼层布草短缺或过剩的情况。 2. 优化资源分配 - 依据各楼层的使用频率和需求差异&#xff0c;合理调配布草资源&…

排序--归并排序

1.什么是归并排序&#xff1f; 归并排序将待排序的数组分成两部分&#xff0c;对每部分递归地应用归并排序&#xff0c;然后将两个有序的子数组合并成一个有序的数组。这个过程一直重复&#xff0c;直到数组完全有序。归并排序的过程可以用一棵完全二叉树来形象地表示&#xf…

frpc内网穿透

官网地址&#xff1a;frp官网 本次用到的Liunx包&#xff1a; https://github.com/fatedier/frp/releases/download/v0.60.0/frp_0.60.0_linux_amd64.tar.gz下载&#xff1a; wget https://github.com/fatedier/frp/releases/download/v0.60.0/frp_0.60.0_linux_amd64.tar.g…

申论笔记杉树林

同义词尽量用文章中的词进行拼凑不一定要有前置词分条 单一题 同义词给分不一定需要前置词分条 1、2、3、尽量抄文章中的词&#xff0c;通顺即可&#xff0c;不一定要成句子不要过分关注形式 题干&#xff1a; 条理清晰&#xff1a;要求分条&#xff0c;尽量有提示词…

脱离枯燥的CRUD,灵活使用Mybatis,根据mybatis动态的xml片段和接口规范动态生成代理类,轻松应付简单业务场景。

需求 需求是这样的&#xff0c;我们有一个数据服务平台的产品&#xff0c;用户先将数据源信息保存到平台上&#xff0c;一个数据源可以提供多个接口服务&#xff0c;而每个接口服务在数据库中存一个具有mybatis语法的sql片段。这样的话&#xff0c;对于一些简单的业务只需要编…

c++进阶学习-----继承

1.继承的概念及定义 1.1继承的概念 继承(inheritance)机制是面向对象程序设计使代码可以复用的最重要的手段&#xff0c;它允许程序员在保持原有类特性的基础上进行扩展&#xff0c;增加功能&#xff0c;这样产生新的类&#xff0c;称派生类。 继承呈现了面向对象 程序设计的…

006——队列

队列&#xff1a; 一种受限的线性表&#xff08;线性逻辑结构&#xff09;&#xff0c;只允许在一段进行添加操作&#xff0c;在另一端只允许进行删除操作&#xff0c;中间位置不可操作&#xff0c;入队的一端被称为队尾&#xff0c;出队的一端被称为队头&#xff0c;在而我们…

iOS 中 KVC 与 KVO 底层原理

KVC 本质&#xff1a; [object setValue: forKey:];即使没有在.h 文件中有property 的属性声明&#xff0c;setValue:forKey依然会按照上图流程执行代码 KVC 如果成功改变了成员变量&#xff0c;是一定可以被 KVO 监听到成员变量的前后改变的 KVO runtime会生成中间类&…

Leetcode 378. 有序矩阵中第 K 小的元素

1.题目基本信息 1.1.题目描述 给你一个 n x n 矩阵 matrix &#xff0c;其中每行和每列元素均按升序排序&#xff0c;找到矩阵中第 k 小的元素。 请注意&#xff0c;它是 排序后 的第 k 小元素&#xff0c;而不是第 k 个 不同 的元素。 你必须找到一个内存复杂度优于 O(n^2…

GPT1-GPT3论文理解

GPT&#xff11;&#xff0d;GPT&#xff13;论文理解 视频参考&#xff1a;https://www.bilibili.com/video/BV1AF411b7xQ/?spm_id_from333.788&vd_sourcecdb0bc0dda1dccea0b8dc91485ef3e74 1 历史 2017.6 Transformer 2018.6 GPT 2018.10 BERT 2019.2 GPT-2 2020…

ER论文阅读-Decoupled Multimodal Distilling for Emotion Recognition

基本介绍&#xff1a;CVPR, 2023, CCF-A 原文链接&#xff1a;https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Decoupled_Multimodal_Distilling_for_Emotion_Recognition_CVPR_2023_paper.pdf Abstract 多模态情感识别&#xff08;MER&#xff09;旨在通过语言、…

闯关leetcode——67. Add Binary

大纲 题目地址内容 解题代码地址 题目 地址 https://leetcode.com/problems/add-binary/description/ 内容 Given two binary strings a and b, return their sum as a binary string. Example 1: Input: a “11”, b “1” Output: “100” Example 2: Input: a “101…

【LeetCode:116. 填充每个节点的下一个右侧节点指针 + BFS(层次遍历)】

&#x1f680; 算法题 &#x1f680; &#x1f332; 算法刷题专栏 | 面试必备算法 | 面试高频算法 &#x1f340; &#x1f332; 越难的东西,越要努力坚持&#xff0c;因为它具有很高的价值&#xff0c;算法就是这样✨ &#x1f332; 作者简介&#xff1a;硕风和炜&#xff0c;…