k8s日常命令-凯发app官方网站

凯发app官方网站-凯发k8官网下载客户端中心 | | 凯发app官方网站-凯发k8官网下载客户端中心
  • 博客访问: 1625636
  • 博文数量: 186
  • 博客积分: 3044
  • 博客等级: 中校
  • 技术积分: 2492
  • 用 户 组: 普通用户
  • 注册时间: 2006-03-25 15:04
文章分类

全部博文(186)

文章存档

2024年(2)

2022年(4)

2021年(3)

2020年(1)

2019年(5)

2018年(13)

2017年(6)

2016年(10)

2015年(11)

2014年(11)

2013年(13)

2012年(23)

2011年(25)

2010年(2)

2008年(1)

2007年(5)

2006年(51)

相关博文
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·
  • ·

分类: 系统运维

2022-04-25 08:57:28

#2022 11 29
 
由于kubernetes-cni的版本: 1.1.1-0 
但是cni的0.9版本后就删除了falnnel的支持,所以加入k8s的版本无法正常
kubectl describe node ** 显示:notready

已经安装好的环境,只能 给kubernetes-cni降级
yum downgrade kubernetes-cni-0.8.7-0.x86_64
全新环境,在安装kubelet前先安装cni:
yum install kubernetes-cni-0.8.7-0.x86_64


#2022 04 25
获取所有pod的ip
 kubectl  get pod  -n yzj -o go-template --template='{{range .items}}{{.status.podip}}{{"\n"}}{{end}}'
获取一个pod的ip
 kubectl  get pod yzjumc-service-57f57ddb84-mgmwz -n yzj -o go-template --template='{{.status.podip}}'
获取一个pod的所有conditions的ready值 
  kubectl get pod  yzjumc-service-57f57ddb84-mgmwz -n yzj -o go-template='{{$pod := .}}{{range .status.conditions}}{{if eq .type "ready"}}{{$pod.metadata.name}}{{" "}}{{.type}}{{":"}}{{.status}}{{"\n"}}{{end}}{{end}}'


获取所有pod的conditions的ready值
  
 kubectl get pod -n yzj -o go-template='{{range .items}}{{$pod := .}}{{range .status.conditions}}{{if eq .type "ready"}}{{$pod.metadata.name}}{{" "}}{{.type}}{{":"}}{{.status}}{{"\n"}}{{end}}{{end}}{{end}}'
  



#以json格式显示特定pod信息
 kubectl  get pod xt-push-574d58c6b4-8jgws -n yzjtest -o json
#显示pod的image
kubectl  get pod xt-push-574d58c6b4-8jgws -n yzjtest -o jsonpath='{..containers[0].image}'
  drillb5hb.kdweibo.cn/springboot/xt-push:pt_imservice_20200807180245
kubectl config view # 显示合并的 kubeconfig 配置。
# 同时使用多个 kubeconfig 文件并查看合并的配置
kubeconfig=~/.kube/config:~/.kube/kubconfig2 kubectl config view
kubectl config view -o jsonpath='{.users[?(@.name == "e2e")].user.password}'   # 获取 e2e 用户的密码
kubectl config view -o jsonpath='{.users[].name}'    # 显示{banned}中国第一个用户
kubectl config view -o jsonpath='{.users[*].name}'   # 获取用户列表
kubectl config get-contexts                          # 显示上下文列表
kubectl config current-context                       # 展示当前所处的上下文
kubectl config use-context my-cluster-name           # 设置默认的上下文为 my-cluster-name
deployment根据pod的标签关联到pod,是为了管理pod的生命周期
service根据pod的标签关联到pod,是为了让外部访问到pod,给pod做负载均衡
需要注意:
    deployment控制器关联的pod,pod的name和hostname(如果不手动指定)就是deployment控制器的name
    statefulset控制器关联的pod,pod的name和hostname(如果不手动指定)就是statefulset控制器的name 序号
#daemonset查看更新规则(以traefik-ingress-controller为例)
kubectl get ds/traefik-ingress-controller -o go-template='{{.spec.updatestrategy.type}}{{"\n"}}' -n kube-system
ondelete
所以当你修改了image的版本后,就算执行了kubectl apply -f ** 后,只能发daemonset更新了,但是pod的image版本没有更新,需要手动删除后才可以更新!
&&ondelete: 使用 ondelete 更新策略时,在更新 daemonset 模板后,只有当您手动删除老的 daemonset pods 之后,新的 daemonset pods 才会被自动创建。跟 kubernetes 1.6 以前的版本类似。
&&rollingupdate: 这是默认的更新策略。使用 rollingupdate 更新策略时,在更新 daemonset 模板后,老的 daemonset pods 将被终止,并且将以受控方式自动创建新的 daemonset pods。

#查看一台机器上部署什么
kubectl get pods --all-namespaces -o wide --field-selector spec.nodename=vm10-*
#查看所有namespace的pods运行情况
kubectl get pods --all-namespaces 
#查看具体pods,记得后边跟namespace名字哦
kubectl get pods  kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube-system
# 查看pods具体信息
kubectl get pods -o wide kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube-system
# 查看集群健康状态
kubectl get cs
# 获取所有deployment
kubectl get deployment --all-namespaces
# 查看kube-system namespace下面的pod/svc/deployment 等等(-o wide 选项可以查看存在哪个对应的节点)
kubectl get pod /svc/deployment -n kube-system
# 列出该 namespace 中的所有 pod 包括未初始化的
kubectl get pods --include-uninitialized
# 查看deployment()
kubectl get deployment nginx-app
# 查看rc和servers
kubectl get rc,services
# 查看pods结构信息(重点,通过这个看日志分析错误)
# 对控制器和服务,node同样有效
kubectl describe pods xxxxpodsname --namespace=xxxnamespace
# 其他控制器类似吧,就是kubectl get 控制器 控制器具体名称
# 查看pod日志
kubectl logs $pod_name
# 查看pod变量
kubectl exec my-nginx-5j8ok -- printenv | grep service
# 集群
kubectl get cs           # 集群健康情况
kubectl cluster-info     # 集群核心组件运行情况
kubectl get namespaces    # 表空间名
kubectl version           # 版本
kubectl api-versions      # api
kubectl get events       # 查看事件
kubectl get nodes      //获取全部节点
kubectl delete node k8s2  //删除节点
kubectl rollout status deploy nginx-test
kubectl get deployment --all-namespaces
kubectl get svc --all-namespaces


# 创建
kubectl create -f ./nginx.yaml           # 创建资源
kubectl apply -f xxx.yaml (创建 更新,可以重复使用)
kubectl create -f .                            # 创建当前目录下的所有yaml资源
kubectl create -f ./nginx1.yaml -f ./mysql2.yaml     # 使用多个文件创建资源
kubectl create -f ./dir                        # 使用目录下的所有清单文件来创建资源
kubectl create -f        # 使用 url 来创建资源
kubectl run -i --tty busybox --image=busybox    ----创建带有终端的pod
kubectl run nginx --image=nginx                # 启动一个 nginx 实例
kubectl run mybusybox --image=busybox --replicas=5    ----启动多个pod
kubectl explain pods,svc                       # 获取 pod 和 svc 的文档


# 更新
kubectl rolling-update python-v1 -f python-v2.json           # 滚动更新 pod frontend-v1
kubectl rolling-update python-v1 python-v2 --image=image:v2  # 更新资源名称并更新镜像
kubectl rolling-update python --image=image:v2                 # 更新 frontend pod 中的镜像
kubectl rolling-update python-v1 python-v2 --rollback        # 退出已存在的进行中的滚动更新
cat pod.json | kubectl replace -f -                              # 基于 stdin 输入的 json 替换 pod
# 为 nginx rc 创建服务,启用本地 80 端口连接到容器上的 8000 端口
kubectl expose rc nginx --port=80 --target-port=8000


# 更新单容器 pod 的镜像版本(tag)到 v4
kubectl get pod nginx-pod -o yaml | sed 's/\(image: myimage\):.*$/\1:v4/' | kubectl replace -f -
kubectl label pods nginx-pod new-label=awesome                      # 添加标签
kubectl annotate pods nginx-pod icon-url=      # 添加注解
kubectl autoscale deployment foo --min=2 --max=10                # 自动扩展 deployment “foo”


# 编辑资源
kubectl edit svc/docker-registry                      # 编辑名为 docker-registry 的 service
kube_editor="nano" kubectl edit svc/docker-registry   # 使用其它编辑器
vim /etc/systemd/system/kubelet.service.d/10-kubeadm.conf #修改启动参数


# 动态伸缩pod
kubectl scale --replicas=3 rs/foo                                 # 将foo副本集变成3个
kubectl scale --replicas=3 -f foo.yaml                            # 缩放“foo”中指定的资源。
kubectl scale --current-replicas=2 --replicas=3 deployment/mysql  # 将deployment/mysql从2个变成3个
kubectl scale --replicas=5 rc/foo rc/bar rc/baz                   # 变更多个控制器的数量
kubectl rollout status deploy deployment/mysql                         # 查看变更进度


#label 操作
kubectl label:添加label值 kubectl label nodes node1 zone=north #增加节点lable值 spec.nodeselector: zone: north #指定pod在哪个节点
kubectl label pod redis-master-1033017107-q47hh role=master #增加lable值 [key]=[value]
kubectl label pod redis-master-1033017107-q47hh role- #删除lable值
kubectl label pod redis-master-1033017107-q47hh role=backend --overwrite #修改lable值


# 滚动升级
kubectl rolling-update:滚动升级 kubectl rolling-update redis-master -f redis-master-controller-v2.yaml #配置文件滚动升级
kubectl rolling-update redis-master --image=redis-master:2.0 #命令升级
kubectl rolling-update redis-master --image=redis-master:1.0 --rollback #pod版本回滚


# etcdctl 常用操作
etcdctl cluster-health #检查网络集群健康状态
etcdctl --endpoints= cluster-health #带有安全认证检查网络集群健康状态
etcdctl member list
etcdctl set /k8s/network/config ‘{ “network”: “10.1.0.0/16” }’
etcdctl get /k8s/network/config


# 删除
kubectl delete pod -l app=flannel -n kube-system   # 根据label删除:
kubectl delete -f ./pod.json                                              # 删除 pod.json 文件中定义的类型和名称的 pod
kubectl delete pod,service baz foo                                        # 删除名为“baz”的 pod 和名为“foo”的 service
kubectl delete pods,services -l name=mylabel                              # 删除具有 name=mylabel 标签的 pod 和 serivce
kubectl delete pods,services -l name=mylabel --include-uninitialized      # 删除具有 name=mylabel 标签的 pod 和 service,包括尚未初始化的
kubectl -n my-ns delete po,svc --all      # 删除 my-ns namespace下的所有 pod 和 serivce,包括尚未初始化的
kubectl delete pods prometheus-7fcfcb9f89-qkkf7 --grace-period=0 --force 强制删除
kubectl delete deployment kubernetes-dashboard --namespace=kube-system
kubectl delete svc kubernetes-dashboard --namespace=kube-system
kubectl delete -f kubernetes-dashboard.yaml
kubectl replace --force -f ./pod.json # 强制替换,删除后重新创建资源。会导致服务中断。


# 交互
kubectl logs nginx-pod                                 # dump 输出 pod 的日志(stdout)
kubectl logs nginx-pod -c my-container                 # dump 输出 pod 中容器的日志(stdout,pod 中有多个容器的情况下使用)
kubectl logs -f nginx-pod                              # 流式输出 pod 的日志(stdout)
kubectl logs -f nginx-pod -c my-container              # 流式输出 pod 中容器的日志(stdout,pod 中有多个容器的情况下使用)
kubectl run -i --tty busybox --image=busybox -- sh  # 交互式 shell 的方式运行 pod
kubectl attach nginx-pod -i                            # 连接到运行中的容器
kubectl port-forward nginx-pod 5000:6000               # 转发 pod 中的 6000 端口到本地的 5000 端口
kubectl exec nginx-pod -- ls /                         # 在已存在的容器中执行命令(只有一个容器的情况下)
kubectl exec nginx-pod -c my-container -- ls /         # 在已存在的容器中执行命令(pod 中有多个容器的情况下)
kubectl top pod pod_name --containers               # 显示指定 pod和容器的指标度量
kubectl exec -ti podname /bin/bash     # 进入pod


# 调度配置
kubectl cordon k8s-node                                                # 标记 my-node 不可调度
kubectl drain k8s-node                                                 # 清空 my-node 以待维护
kubectl uncordon k8s-node                                              # 标记 my-node 可调度
kubectl top node k8s-node                                              # 显示 my-node 的指标度量
kubectl cluster-info dump                                             # 将当前集群状态输出到 stdout                                    
kubectl cluster-info dump --output-directory=/path/to/cluster-state   # 将当前集群状态输出到 /path/to/cluster-state
#如果该键和影响的污点(taint)已存在,则使用指定的值替换
kubectl taint nodes foo dedicated=special-user:noschedule
#查看kubelet进程启动参数
ps -ef | grep kubelet
# 查看日志:
journalctl -u kubelet -f


导出配置文件:
  导出proxy
  kubectl get ds -n kube-system -l k8s-app=kube-proxy -o yaml>kube-proxy-ds.yaml
  导出kube-dns
  kubectl get deployment -n kube-system -l k8s-app=kube-dns -o yaml >kube-dns-dp.yaml
  kubectl get services -n kube-system -l k8s-app=kube-dns -o yaml >kube-dns-services.yaml
  导出所有 configmap
  kubectl get configmap -n kube-system -o wide -o yaml > configmap.yaml


复杂操作命令:
 删除kube-system 下evicted状态的所有pod:
kubectl get pods -n kube-system |grep evicted| awk ‘{print $1}’|xargs kubectl delete pod -n kube-system
以下为维护环境相关命令:
重启kubelet服务
systemctl daemon-reload
systemctl restart kubelet


kubernetes日常维护命令
一. 查看集群信息


[root@k8s-master01 ~]# kubectl cluster-info
[root@k8s-master01 ~]# kubectl cluster-info dump
   
二. 查看各组件状态
[root@k8s-master01 ~]# kubectl -s get componentstatuses
name                 status    message             error
controller-manager   healthy   ok               
scheduler            healthy   ok               
etcd-0               healthy   {"health":"true"}
   
或者
[root@k8s-master01 ~]# kubectl -s get componentstatuses
name                 status    message             error
scheduler            healthy   ok               
controller-manager   healthy   ok               
etcd-0               healthy   {"health":"true"}
   
三. get信息
   
1) 查看节点 (k8s-master01 对应的是 172.16.60.220的主机名)
[root@k8s-master01 ~]# kubectl get node                                #将命令中的node变为nodes也是可以的
name         status    age
k8s-node01   ready     1d
k8s-node02   ready     1d
   
[root@k8s-master01 ~]# kubectl -s get node    #将命令中的node变为nodes也是可以的
name         status    age
k8s-node01   ready     1d
k8s-node02   ready     1d
   
2) 查看pods清单(查看pod ip地址,下面命令加上"-o wide")
[root@k8s-master01 ~]# kubectl get pod                           #将pod变为pods也可以。如果有namespace,需要跟上"-n namespace名字" 或 "--all-namespaces"             
name                      ready     status    restarts   age
nginx-controller-d97wj    1/1       running   0          1h
nginx-controller-lf11n    1/1       running   0          1h
tomcat-controller-35kzb   1/1       running   0          18m
tomcat-controller-lsph4   1/1       running   0          18m
   
[root@k8s-master01 ~]# kubectl -s get pod          #将命令中的pod变为pods也是可以的
name                      ready     status    restarts   age
nginx-controller-d97wj    1/1       running   0          1h
nginx-controller-lf11n    1/1       running   0          1h
tomcat-controller-35kzb   1/1       running   0          18m
tomcat-controller-lsph4   1/1       running   0          18m
   
3) 查看service清单
[root@k8s-master01 ~]# kubectl get service                                             #将命令中的service变为services也是可以的
name                       cluster-ip       external-ip   port(s)          age
kubernetes                 172.16.0.1               443/tcp          1d
nginx-service-clusterip    172.16.77.193            8001/tcp         1h
nginx-service-nodeport     172.16.234.94           8000:32172/tcp   59m
tomcat-service-clusterip   172.16.144.116           8801/tcp         14m
tomcat-service-nodeport    172.16.183.234          8880:31960/tcp   11m
   
[root@k8s-master01 ~]# kubectl -s get service               #将命令中的service变为services也是可以的
name                       cluster-ip       external-ip   port(s)          age
kubernetes                 172.16.0.1               443/tcp          1d
nginx-service-clusterip    172.16.77.193            8001/tcp         1h
nginx-service-nodeport     172.16.234.94           8000:32172/tcp   1h
tomcat-service-clusterip   172.16.144.116           8801/tcp         17m
tomcat-service-nodeport    172.16.183.234          8880:31960/tcp   14m
   
或者  (后面的sed表示 打印奇数行)
[root@k8s-master01 ~]# kubectl get services -o json|grep '"name":'|sed -n '1~2p'
                "name": "kubernetes",
                "name": "nginx-service-clusterip",
                "name": "nginx-service-nodeport",
                "name": "tomcat-service-clusterip",
                "name": "tomcat-service-nodeport",
   
4) 查看replicationcontrollers清单 (同理可以将命令中的replicationcontrollers变为replicationcontroller也是可以的)
[root@k8s-master01 ~]# kubectl get replicationcontrollers
name                desired   current   ready     age
nginx-controller    2         2         2         2h
tomcat-controller   2         2         2         1h
   
[root@k8s-master01 ~]# kubectl -s get replicationcontrollers
name                desired   current   ready     age
nginx-controller    2         2         2         2h
tomcat-controller   2         2         2         1h
   
5) 查看rc和namespace
[root@k8s-master01 ~]# kubectl get rc,namespace
name                   desired   current   ready     age
rc/nginx-controller    2         2         2         2h
rc/tomcat-controller   2         2         2         1h
   
name             status    age
ns/default       active    1d
ns/kube-system   active    1d
   
6) 查看pod和svc(和service一样)
[root@k8s-master01 ~]# kubectl get pods,svc
name                         ready     status    restarts   age
po/nginx-controller-d97wj    1/1       running   0          2h
po/nginx-controller-lf11n    1/1       running   0          2h
po/tomcat-controller-35kzb   1/1       running   0          1h
po/tomcat-controller-lsph4   1/1       running   0          1h
   
name                           cluster-ip       external-ip   port(s)          age
svc/kubernetes                 172.16.0.1               443/tcp          1d
svc/nginx-service-clusterip    172.16.77.193            8001/tcp         2h
svc/nginx-service-nodeport     172.16.234.94           8000:32172/tcp   2h
svc/tomcat-service-clusterip   172.16.144.116           8801/tcp         1h
svc/tomcat-service-nodeport    172.16.183.234          8880:31960/tcp   1h
   
7) 以jison格式输出pod的详细信息.
[root@k8s-master01 ~]# kubectl get pods
name                      ready     status    restarts   age
nginx-controller-d97wj    1/1       running   0          2h
nginx-controller-lf11n    1/1       running   0          2h
tomcat-controller-35kzb   1/1       running   0          1h
tomcat-controller-lsph4   1/1       running   0          1h
   
注意下面命令中的pods的名称可以通过上面命令查看
[root@k8s-master01 ~]# kubectl get po nginx-controller-d97wj -o json
{
    "apiversion": "v1",
    "kind": "pod",
    "metadata": {
        "annotations": {
...................
...................
        "hostip": "172.16.60.222",
        "phase": "running",
        "podip": "192.168.100.2",
        "starttime": "2019-03-15t14:40:18z"
    }
}
   
还可以输出其它格式和方法(kubectl get -h查看帮助)
[root@k8s-master01 ~]# kubectl get -h
   
8) 查看指定pod跑在哪个node上
[root@k8s-master01 ~]# kubectl get po nginx-controller-d97wj -o wide  
name                     ready     status    restarts   age       ip              node
nginx-controller-d97wj   1/1       running   0          2h        192.168.100.2   k8s-node02
   
9) 获取指定json或ymal格式的key数据,custom-columns=xxxxx(自定义列名):.status.hostip(以“点开始”,然后写路径就可以)
注意: 下面命令中的nginx-controller-d97wj是pod单元名称 (kubectl get pods 可以查看pods)
[root@k8s-master01 ~]# kubectl get po nginx-controller-d97wj -o custom-columns=host-ip:.status.hostip,pod-ip:.status.podip  
host-ip         pod-ip
172.16.60.222   192.168.100.2
   
10) describe方法
describe类似于get,同样用于获取resource的相关信息。不同的是,get获得的是更详细的resource个性的详细信息,describe获得的是resource集群相关的信息。
describe命令同get类似,但是describe不支持-o选项,对于同一类型resource,describe输出的信息格式,内容域相同。
    
需要注意:  如果发现是查询某个resource的信息,使用get命令能够获取更加详尽的信息。但是如果想要查询某个resource的状态,如某个pod并不是在running状态,
这时需要获取更详尽的状态信息时,就应该使用describe命令。
   
[root@k8s-master01 ~]# kubectl describe po nginx-controller-d97wj
name:           nginx-controller-d97wj
namespace:      default
node:           k8s-node02/172.16.60.222
start time:     fri, 15 mar 2019 22:40:18 0800
labels:         name=nginx
status:         running
ip:             192.168.100.2
controllers:    replicationcontroller/nginx-controller
containers:
  nginx:
    container id:               docker://8ae4502b4e62120322de98aa532e653d3d2e058ffbb0b842e0f265621bebbe61
    image:                      172.16.60.220:5000/nginx
    image id:                   docker-pullable://172.16.60.220:5000/nginx@sha256:7734a210432278817f8097acf2f72d20e2ccc7402a0509810c44b3a8bfe0094a
    port:                       80/tcp
    state:                      running
      started:                  fri, 15 mar 2019 22:40:19 0800
    ready:                      true
    restart count:              0
    volume mounts:             
    environment variables:     
conditions:
  type          status
  initialized   true
  ready         true
  podscheduled  true
no volumes.
qos class:      besteffort
tolerations:   
no events.
   
11) create创建
kubectl命令用于根据文件或输入创建集群resource。如果已经定义了相应resource的yaml或son文件,直接kubectl create -f filename即可创建文件内定义的
resource。也可以直接只用子命令[namespace/secret/configmap/serviceaccount]等直接创建相应的resource。从追踪和维护的角度出发,建议使用json或
yaml的方式定义资源。
    
命令格式:
# kubectl create -f 文件名
    
12) replace更新替换资源
replace命令用于对已有资源进行更新、替换。如前面create中创建的nginx,当我们需要更新resource的一些属性的时候,如果修改副本数量,增加、修改label,
更改image版本,修改端口等。都可以直接修改原yaml文件,然后执行replace命令。
    
需要注意: 名字不能被更更新。另外,如果是更新label,原有标签的pod将会与更新label后的rc断开联系,有新label的rc将会创建指定副本数的新的pod,但是默认
并不会删除原来的pod。所以此时如果使用get po将会发现pod数翻倍,进一步check会发现原来的pod已经不会被新rc控制,此处只介绍命令不详谈此问题,好奇者可自行实验。
    
命令格式:
# kubectl replace -f nginx-rc.yaml
    
13) patch
如果一个容器已经在运行,这时需要对一些容器属性进行修改,又不想删除容器,或不方便通过replace的方式进行更新。kubernetes还提供了一种在容器运行时,直接
对容器进行修改的方式,就是patch命令。 如创建pod的label是app=nginx-2,如果在运行过程中,需要把其label改为app=nginx-3。
这个patch命令如下:
[root@k8s-master01 ~]# kubectl patch pod nginx-controller-d97wj -p '{"metadata":{"labels":{"app":"nginx-3"}}}'
"nginx-controller-d97wj" patched
   
14) edit
edit提供了另一种更新resource源的操作,通过edit能够灵活的在一个common的resource基础上,发展出更过的significant resource。
例如,使用edit直接更新前面创建的pod的命令为:
# kubectl edit po nginx-controller-d97wj
    
上面命令的效果等效于:
# kubectl get po nginx-controller-d97wj -o yaml >> /tmp/nginx-tmp.yaml
# vim /tmp/nginx-tmp.yaml             // 这此文件里做一些修改
# kubectl replace -f /tmp/nginx-tmp.yaml
    
15) delete
根据resource名或label删除resource。
# kubectl delete -f nginx-rc.yaml
# kubectl delete po nginx-controller-d97wj
# kubectl delete po nginx-controller-lf11n
    
16) apply
apply命令提供了比patch,edit等更严格的更新resource的方式。通过apply,用户可以将resource的configuration使用source control的方式维护在版本库中。
每次有更新时,将配置文件push到server,然后使用kubectl apply将更新应用到resource。kubernetes会在引用更新前将当前配置文件中的配置同已经应用的配置
做比较,并只更新更改的部分,而不会主动更改任何用户未指定的部分。
    
apply命令的使用方式同replace相同,不同的是,apply不会删除原有resource,然后创建新的。apply直接在原有resource的基础上进行更新。同时kubectl apply
还会resource中添加一条注释,标记当前的apply。类似于git操作。
    
17) logs
logs命令用于显示pod运行中,容器内程序输出到标准输出的内容。跟docker的logs命令类似。如果要获得tail -f 的方式,也可以使用-f选项。
# kubectl logs nginx-controller-d97wj
    
18) rolling-update
rolling-update是一个非常重要的命令,对于已经部署并且正在运行的业务,rolling-update提供了不中断业务的更新方式。rolling-update每次起一个新的pod,
等新pod完全起来后删除一个旧的pod,然后再起一个新的pod替换旧的pod,直到替换掉所有的pod。
    
rolling-update需要确保新的版本有不同的name,version和label,否则会报错 。
# kubectl rolling-update nginx-controller -f nginx-rc.yaml
    
如果在升级过程中,发现有问题还可以中途停止update,并回滚到前面版本
# kubectl rolling-update nginx-controller --rollback
    
rolling-update还有很多其他选项提供丰富的功能,如--update-period指定间隔周期,使用时可以使用-h查看help信息.
    
19) scale  (注意下面的nginx-controller 是在nginx-rc.yaml文件中定义的name名称)
scale用于程序在负载加重或缩小时副本进行扩容或缩小,如前面创建的nginx有两个副本,可以轻松的使用scale命令对副本数进行扩展或缩小。
扩展副本数到4:
# kubectl scale rc nginx-controller --replicas=4
    
重新缩减副本数到2:
# kubectl scale rc nginx-controller --replicas=2
    
20) autoscale
scale虽然能够很方便的对副本数进行扩展或缩小,但是仍然需要人工介入,不能实时自动的根据系统负载对副本数进行扩、缩。autoscale命令提供了自动根据pod负载
对其副本进行扩缩的功能。
    
autoscale命令会给一个rc指定一个副本数的范围,在实际运行中根据pod中运行的程序的负载自动在指定的范围内对pod进行扩容或缩容。如前面创建的nginx,可以用
如下命令指定副本范围在1~4
# kubectl autoscale rc nginx-controller --min=1 --max=4
    
21) attach
attach命令类似于docker的attach命令,可以直接查看容器中以daemon形式运行的进程的输出,效果类似于logs -f,退出查看使用ctrl-c。如果一个pod中有多个容器,
要查看具体的某个容器的的输出,需要在pod名后使用-c containers name指定运行的容器。如下示例的命令为查看kube-system namespace中的kube-dns-v9-rcfuk pod
中的skydns容器的输出。
# kubectl attach kube-dns-v9-rcfuk -c skydns --namespace=kube-system
    
22) exec
exec命令同样类似于docker的exec命令,为在一个已经运行的容器中执行一条shell命令,如果一个pod容器中,有多个容器,需要使用-c选项指定容器。
    
23) run
类似于docker的run命令,直接运行一个image。
    
24) cordon, drain, uncordon
这三个命令是正式release的1.2新加入的命令,三个命令一起介绍,是因为三个命令配合使用可以实现节点的维护。在1.2之前,因为没有相应的命令支持,如果要维护一个
节点,只能stop该节点上的kubelet将该节点退出集群,是集群不在将新的pod调度到该节点上。如果该节点上本生就没有pod在运行,则不会对业务有任何影响。如果该节
点上有pod正在运行,kubelet停止后,master会发现该节点不可达,而将该节点标记为notready状态,不会将新的节点调度到该节点上。同时,会在其他节点上创建新的
pod替换该节点上的pod。这种方式虽然能够保证集群的健壮性,但是任然有些暴力,如果业务只有一个副本,而且该副本正好运行在被维护节点上的话,可能仍然会造成业
务的短暂中断。
    
1.2中新加入的这3个命令可以保证维护节点时,平滑的将被维护节点上的业务迁移到其他节点上,保证业务不受影响。如下图所示是一个整个的节点维护的流程(为了方便
demo增加了一些查看节点信息的操作):
1- 首先查看当前集群所有节点状态,可以看到共四个节点都处于ready状态;
2- 查看当前nginx两个副本分别运行在d-node1和k-node2两个节点上;
3- 使用cordon命令将d-node1标记为不可调度;
4- 再使用kubectl get nodes查看节点状态,发现d-node1虽然还处于ready状态,但是同时还被禁能了调度,这意味着新的pod将不会被调度到d-node1上。
5- 再查看nginx状态,没有任何变化,两个副本仍运行在d-node1和k-node2上;
6- 执行drain命令,将运行在d-node1上运行的pod平滑的赶到其他节点上;
7- 再查看nginx的状态发现,d-node1上的副本已经被迁移到k-node1上;这时候就可以对d-node1进行一些节点维护的操作,如升级内核,升级docker等;
8- 节点维护完后,使用uncordon命令解锁d-node1,使其重新变得可调度;8)检查节点状态,发现d-node1重新变回ready状态
    
# kubectl get nodes
# kubectl get po -o wide
# kubectl cordon d-node1
# kubectl get nodes
# kubectl get po -o wide
# kubectl drain d-node1
# kubectl get po -o wide
# kubectl uncordon
# kubectl uncordon d-node1
# kubectl get nodes
    
25) 查看某个pod重启次数(这个是参考)
# kubectl get pod nginx-controller-d97wj --template="{{range .status.containerstatuses}}{{.name}}:{{.restartcount}}{{end}}"
    
26) 查看pod生命周期
[root@k8s-master01 ~]# kubectl get pod nginx-controller-d97wj --template="{{.status.phase}}"
running
  
===============================================================================================
  
常用命令-----------------------------------------------------------------
kubectl get pods
kubectl get rc
kubectl get service
kubectl get componentstatuses
kubectl get endpoints
kubectl cluster-info
kubectl create -f redis-master-controller.yaml
kubectl delete -f redis-master-controller.yaml
kubectl delete pod nginx-772ai
kubectl logs -f pods/heapster-xxxxx -n kube-system                     #查看日志
kubectl scale rc redis-slave --replicas=3                              #修改rc的副本数量,来实现pod的动态缩放
etcdctl cluster-health                                                 #检查网络集群健康状态
etcdctl --endpoints= cluster-health           #带有安全认证检查网络集群健康状态
etcdctl member list
etcdctl set /k8s/network/config '{ "network": "10.1.0.0/16" }'
etcdctl get /k8s/network/config
  
 
基础进阶---------------------------------------------------------------
kubectl get services kubernetes-dashboard -n kube-system           #查看所有service
kubectl get deployment kubernetes-dashboard -n kube-system         #查看所有发布
kubectl get pods --all-namespaces                                  #查看所有pod
kubectl get pods -o wide --all-namespaces                          #查看所有pod的ip及节点
kubectl get pods -n kube-system | grep dashboard
kubectl describe service/kubernetes-dashboard --namespace="kube-system"
kubectl describe pods/kubernetes-dashboard-349859023-g6q8c --namespace="kube-system"       #指定类型查看
kubectl describe pod nginx-772ai                                   #查看pod详细信息
kubectl scale rc nginx --replicas=5                                #动态伸缩
kubectl scale deployment redis-slave --replicas=5                  #动态伸缩
kubectl scale --replicas=2 -f redis-slave-deployment.yaml          #动态伸缩
kubectl exec -it tomcat-controller-35kzb /bin/bash                 #进入容器
kubectl label nodes k8s-node01 zone=north                #增加节点lable值 spec.nodeselector: zone: north, 指定pod在哪个节点
kubectl get nodes -lzone                                 #获取zone的节点
kubectl label pod tomcat-controller-35kzb role=master    #增加lable值 [key]=[value]
kubectl label pod tomcat-controller-35kzb role-                       #删除lable值
kubectl label pod tomcat-controller-35kzb role=backend --overwrite    #修改lable值
kubectl rolling-update redis-master -f redis-master-controller-v2.yaml      #配置文件滚动升级
kubectl rolling-update redis-master --image=redis-master:2.0                #命令升级
kubectl rolling-update redis-master --image=redis-master:1.0 --rollback     #pod版本回滚
 
 
yaml使用及命令----------------------------------------------------------
kubectl create -f nginx-deployment.yaml   #创建deployment资源
kubectl get deploy      #查看deployment
kubectl get rs          #查看replicaset
kubectl get pods --show-labels   #查看pods所有标签。可以添加"-all-namespaces" 或者 "-n kube-system"表示查看所有命名空间或某一命名空间里pods的标签
kubectl get pods -l app=nginx    #根据标签查看pods
 
kubectl set image deployment/nginx-deployment nginx=nginx:1.11     #滚动更新镜像
或者
kubectl edit deployment/nginx-deployment
或者
kubectl apply -f nginx-deployment.yaml                             #也表示对yaml修改后进行更新操作,更新到kubernetes集群配置中
 
kubectl rollout status deployment/nginx-deployment                 #实时观察发布状态:
 
kubectl rollout history deployment/nginx-deployment                #查看deployment历史修订版本
kubectl rollout history deployment/nginx-deployment --revision=3
 
kubectl rollout undo deployment/nginx-deployment                   #回滚到以前版本
kubectl rollout undo deployment/nginx-deployment --to-revision=3
 
kubectl scale deployment nginx-deployment --replicas=10            #扩容deployment的pod副本数量
 
kubectl autoscale deployment nginx-deployment --min=10 --max=15 --cpu-percent=80     #设置启动扩容/缩容
 
 
命名空间----------------------------------------------------------------
kubectl get namespace                            #获取k8s的命名空间
kubectl get pod --namespace =[命令空间名称]        #获取对应命名空间内的pod,"--namespace"可以写成"-c"
kubectl --namespace [命令空间名称] logs [pod名称] -c 容器名称    #获取对应namespace中对应pod的日志,如果不加"-c 容器名称",则默认查看的是该pod下{banned}中国第一个容器的日志
 
pod维护示例:
查看某个命令空间下的pod
# kubectl get pods -n namespace  
  
在没有pod 的yaml文件时,强制重启某个pod
# kubectl get pod podname -n namespace -o yaml | kubectl replace --force -f -
  
查看某个pod重启次数(这个是参考)
# kubectl get pod podname -n namespace --template="{{range .status.containerstatuses}}{{.name}}:{{.restartcount}}{{end}}"
  
查看pod生命周期
# kubectl get pod podname --template="{{.status.phase}}"
  
查看kube-space命令空间下的pod
[root@m7-autocv-gpu01 ~]# kubectl get pods -n kube-system -o wide|grep -e 'elasticsearch|fluentd|kibana'
elasticsearch-logging-0                  1/1     running   0          5h9m    172.30.104.6   m7-autocv-gpu03   
elasticsearch-logging-1                  1/1     running   0          4h59m   172.30.232.8   m7-autocv-gpu02   
fluentd-es-v2.2.0-mkkcf                  1/1     running   0          5h9m    172.30.104.7   m7-autocv-gpu03   
kibana-logging-f6fc77549-nlxfg           1/1     running   0          42s     172.30.96.7    m7-autocv-gpu01   
  
[root@m7-autocv-gpu01 ~]# kubectl get pod kibana-logging-f6fc77549-nlxfg -n kube-system -o yaml | kubectl replace --force -f -
pod "kibana-logging-f6fc77549-d47nc" deleted
pod/kibana-logging-f6fc77549-d47nc replaced
  
[root@m7-autocv-gpu01 ~]#  kubectl get pod kibana-logging-f6fc77549-nlxfg -n kube-system --template="{{range .status.containerstatuses}}{{.name}}:{{.restartcount}}{{end}}"
kibana-logging:0
  
[root@m7-autocv-gpu01 ~]# kubectl get pod kibana-logging-f6fc77549-nlxfg -n kube-system --template="{{.status.phase}}"
running






etcdctl_api=3 etcdctl --endpoints=https://[127.0.0.1]:2379 --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/healthcheck-client.crt --key=/etc/kubernetes/pki/etcd/healthcheck-client.key


etcdctl_api=3 etcdctl --endpoints=https://[127.0.0.1]:2379 --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/healthcheck-client.crt --key=/etc/kubernetes/pki/etcd/healthcheck-client.key


有时候经常会有个别容器占用磁盘空间特别大,这个时候就需要通过docker overlay2 目录名查找容器名
28c3e3cdaa331e1b4670c443f83379d12c9d9132e08210ec0f4f27659ee6a425为overlay2下的目录名
目录名查找容器名
docker ps -q | xargs docker inspect --format '{{.state.pid}}, {{.id}}, {{.name}}, {{.graphdriver.data.workdir}}' |grep 28c3e3cdaa331e1b4670c443f83379d12c9d9132e08210ec0f4f27659ee6a425
阅读(2406) | 评论(0) | 转发(0) |
0

上一篇:

下一篇:k8s里的node-exporter如何curl访问

给主人留下些什么吧!~~
")); function link(t){ var href= $(t).attr('href'); href ="?url=" encodeuricomponent(location.href); $(t).attr('href',href); //setcookie("returnouturl", location.href, 60, "/"); }
网站地图