kubernetesReadinessandlivenessandstartupProbe
kubernetes Pod 的生命周期(Readiness and liveness and startupProbe)
容器探针
为什么要使用readiness and liveness?
因为k8s中采用大量的异步机制、以及多种对象关系设计上的解耦,当应用实例数 增加/删除
、或者应用版本发生变化触发滚动升级时,系统并不能保证应用相关的service、ingress配置总是及时能完成刷新。在一些情况下,往往只是新的Pod完成自身初始化,系统尚未完成EndPoint
、负载均衡器等外部可达的访问信息刷新,老得Pod就立即被删除,最终造成服务短暂的额不可用,这对于生产来说是不可接受的,所以这个时候存活探针(Readiness)就登场了
10年积累的成都做网站、网站设计经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先网站制作后付款的网站建设流程,更有德清免费网站建设让你可以放心的选择与我们合作。
启动探针(startup Probe)
有时候,服务启动之后并不一定能够立马使用,我们以前常做的就是使用就绪探针设置initialDelay
(容器启动后多少s开始探测)值,来判断服务是否存活,大概设置如下
livenessProbe:
httpGet:
path: /test
prot: 80
failureThreshold: 1
initialDelay:10
periodSeconds: 10
但是这个时候会出现这么一个情况,如果我们的服务A启动需要60s ,如果采用上面探针的会,这个pod就陷入死循环了,因为启动之后经过10s探测发现不正常就会更具重启策略进行重启Pod,一直进入死循环。那聪明的你肯定能猜到我们调整下initialDelay
的值不就好了吗? 但是你能保证每个服务你都知道启动需要多少s 能好吗?
聪明的您肯定又想到了 哪我们可以调整下failureThreshold
的值就好了,但是应该调整为多大呢?如果我们设置成
livenessProbe:
httpGet:
path: /test
prot: 80
failureThreshold: 5
initialDelay:10
periodSeconds: 10
如果设置成这样,第一次pod 是能正常启动了,但是我们到后面探测的话需要(5*10s=50s)我们才能发现我们的服务不可用。这在生产中是不允许发生的,所以我们采用startupProbe
使用和livenessProbe
一样的探针来判断服务是否启动成功了
livenessProbe:
httpGet:
path: /test
prot: 80
failureThreshold: 1
initialDelay:10
periodSeconds: 10
startupProbe:
httpGet:
path: /test
prot: 80
failureThreshold: 10
initialDelay:10
periodSeconds: 10
我们这只成这样的话,只要服务在1010=100s内任何时候启动来都行,探针探测成功后就交给livenessProbe进行继续探测了,当我们发现问题的时候110=10 在10s内就能发现问题,并及时作出响应。
服务探针(readiness probe)
检测容器中的程序是否启动就绪,只有当检测容器中的程序启动成功之后,才会变成running状态,否则就是容器启动成功,他还是失败的信号(因为他里面的服务没有探测成功)
存活探针(liveness Probe)(是否运行)
检测容器是否在运行,只是单纯的检测容器是否存活,并不会检测里面的服务是否正常.如果探针检测到失败,他将启动他的重启策略.
三种类型的处理程序:
- 1, ExecAction: 通过自定义命令来进行探测,当返回值是0的时候说明存活,当返回值非0的时候表示不存活.
- 2, TCPSocketAction: 对容器上的端口进行tcp检查,如果端口是打开的,则说明存活
- 3, HTTPGetAction: 对指定端口和url地址执行HTTP Get请求,如果响应的状态码大于等于200且小于400,则认为存活
每次探测都只能只能是下面三种结果:
- 1, 成功: 容器通过了测试
- 2, 失败: 容器未通过测试
- 3, 未知: 测试失败,因此不会采取任何动作
探针示例:
ExecAction
# cat nginx.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx
spec:
restartPolicy: OnFailure
containers:
- name: nginx
image: nginx:1.14.1
imagePullPolicy: IfNotPresent
ports:
- name: http
containerPort: 80
protocol: TCP
- name: https
containerPort: 443
protocol: TCP
livenessProbe:
exec:
command: ["test","-f","/usr/share/nginx/html/index.html"]
failureThreshold: 3
initialDelaySeconds: 5
periodSeconds: 5
timeoutSeconds: 5
readinessProbe:
httpGet:
port: 80
path: /index.html
initialDelaySeconds: 15
timeoutSeconds: 1
我们启动这个容器,测试一下服务探针.
kubectl create -f nginx.yaml
我们进入到nginx容器里面把index这个文件删除了,看看详细信息
#kubectl describe pod nginx
.....
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 4m24s default-scheduler Successfully assigned default/nginx to 192.168.1.124
Normal Pulling 4m23s kubelet, 192.168.1.124 pulling image "nginx:1.14.1"
Normal Pulled 4m1s kubelet, 192.168.1.124 Successfully pulled image "nginx:1.14.1"
Warning Unhealthy 57s kubelet, 192.168.1.124 Readiness probe failed: HTTP probe failed with statuscode: 404
Warning Unhealthy 50s (x3 over 60s) kubelet, 192.168.1.124 Liveness probe failed:
Normal Killing 50s kubelet, 192.168.1.124 Killing container with id docker://nginx:Container failed liveness probe.. Container will be killed and recreated.
Normal Pulled 50s kubelet, 192.168.1.124 Container image "nginx:1.14.1" already present on machine
Normal Created 49s (x2 over 4m) kubelet, 192.168.1.124 Created container
Normal Started 49s (x2 over 4m) kubelet, 192.168.1.124 Started container
很明显的从事件信息里面可以看到他服务探测有一次是报错404的,然后立马就执行了重启容器的过程
探针参数介绍:
exec: 使用自定义命令编写探针
httpGet: 使用http访问的方式探测
tcpSocket: 使用tcp套接字来探测
failureThreshold: 连续失败几次算真正的失败
initialDelaySeconds: 容器启动多少秒之后开始探测(因为容器里面的服务启动需要时间)
periodSeconds: 探测时间间隔多少秒
timeoutSeconds: 命令执行的超时时间
HTTPGet的探针参数:
- host: 探测那个主机(URL)
- path: 访问的路径(URI)
- port: 访问的端口(必须字段)
- scheme:用于连接主机的方案(HTTP或HTTPS)。默认为HTTP
- httpHeaders:要在请求中设置的自定义标头。HTTP允许重复标头。
网站题目:kubernetesReadinessandlivenessandstartupProbe
路径分享:http://ybzwz.com/article/pdjhjo.html