Kubernetes基本架构及集群部署

网友投稿 699 2022-10-12

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

Kubernetes基本架构及集群部署

Kubernetes是开源的容器编排引擎,支持自动化部署、大规模可伸缩、应用容器化管理,有助于运维人员进行资源的自动化管理和利用率最大化。本文是基于张建锋老师容器技术培训关于K8S的有关总结和整理,以加深学习了解。

1、K8S基本架构介绍

Kubernetes简称K8S,是Google开源的一个容器编排引擎,它支持自动化部署、大规模可伸缩、应用容器化管理,目的是实现资源管理的自动化以及跨数据中心的资源利用率最大化。官方的描述如下:

Kubernetes, also known as K8s, is an open-source system for automating deployment, scaling, and management of containerized applications.

K8S能够在开发、测试以及运维监控在内的各个环节进行部署。在K8S中,可以创建多个容器,每个容器里面运行一个应用实例,然后通过内置的负载均衡策略,实现对这一组应用实例的管理、发现、访问,这些细节都不需要运维人员去进行复杂的手工配置和处理。

1.1 K8S的集群管理能力

容器是打包和运行应用程序的好方式,在生产环境中,运维人员需要管理运行应用程序的容器,并确保不会停机,这些可以通过K8S来实现。K8S的核心功能是自动化运维管理多个容器化程序,提供了一个可弹性运行分布式系统的框架,满足扩展要求、故障转移、部署模式等要求。因此具备以下集群管理能力:

多层次的安全防护和准入机制多租户应用支撑能力:基于容器对应用运行环境的资源配置要求自动部署应用容器透明的服务注册和服务发现机制:K8S可以使用DNS名称或自己的IP地址公开容器,内建的智能负载均衡器:如果进入容器的流量很大,K8S可以负载均衡并分配网络流量,从而使部署稳定强大的故障发现和自我修复能力:当容器失败时,会对容器进行重启,当所部署的 Node 节点有问题时,会对容器进行重新部署和重新调度,当容器未通过监控检查时,会关闭此容器直到容器正常运行时,才会对外提供服务服务滚动升级和在线扩容能力:可以根据应用的变化,对应用容器运行的应用,进行一次性或批量式更新可扩展的资源自动调度机制:通过简单的命令、用户UI界面或基于CPU等资源使用情况,对应用容器进行规模扩大或规模剪裁多粒度的资源配额管理能力:K8S允许指定每个容器所需CPU和内存(RAM)。当容器指定了资源请求时,K8S可以做出更好的决策来管理容器的资源批任务处理:提供一次性任务,定时任务;满足批量数据处理和分析的场景

1.2 K8S整体架构及组件介绍

K8S是属于主从Master-Slave架构,主节点一般被称为Master Node,而从节点则被称为Worker Node或者Node,Master Node负责核心的调度、管理和运维,Worker Node则执行用户的程序。每个Node对应一台实体服务器,同一个集群中可以有多个Master Node和Worker Node,所以的Nodes构成了K8S集群。

Master Node:主控节点,管理整个集群,是客户端和集群之间的联络点。API服务管理、跟进组件健康状态、优化调度工作负载、组件通信联络,一般是3台Master主机。API Server:K8S的请求入口服务。API Server负责接收K8S所有请求(来自 UI 界面或者 CLI 命令行工具),然后,API Server根据用户的具体请求,去通知其他组件干活Kubectl:命令行工具ETCD:K8S的存储服务,是一个分布式的一个存储系统,提供高可用性、严格数据一致性的非关系型数据库,具有共享配置、服务发现、分布式等特点,常被用于构建服务发现系统。API Server中所需要的这些原信息都被放置在etcd中,etcd本身是一个高可用系统,通过etcd保证整个Kubernetes的Master组件的高可用性。Control Manager:K8S 所有Worker Node的监控器。Controller Manager有很多具体的Controller,包括 Node Controller、Service Controller、Volume Controller等。Controller负责监控和调整在Worker Node上部署的服务的状态,比如用户要求A服务部署2个副本,那么当其中一个服务挂了的时候,Controller会马上调整,让Scheduler再选择一个Worker Node重新部署服务。Scheduler:K8S所有Worker Node的调度器。当用户要部署服务时,Scheduler会选择最合适的Worker Node(服务器)来部署。Worker Node:工作节点,执行具体的工作任务。Node主要接收来自Master的工作指令、创建或销毁Pod对象、调整网络规则和转发路由流量Kubelet:Worker Node的监视器,以及与Master Node的通讯器。Kubelet是Master Node安插在Worker Node上的“眼线”,它会定期向Worker Node汇报自己Node上运行的服务的状态,并接受来自Master Node的指示采取调整措施。Pod:可以在K8S中创建和管理的、最小的可部署的计算单元。与Pod里容器打交道,每个Pod下有多个容器Kube-proxy:K8S的网络代理。Kube-Proxy负责Node在K8S的网络通讯、以及对外部网络流量的负载均衡Container Runtime:Worker Node的运行环境,即安装了容器化所需的软件环境确保容器化程序能够跑起来,比如Docker Engine

1.2.1 ETCD介绍

Etcd是基于Raft开发的分布式key-value键值数据存储系统,可用于服务发现、共享配置以及一致性保障(如数据库选主、分布式锁等)。

在K8S中Etcd有以下特性:

是K8S服务发现,集群状态存储以及其配置的基石存储集群的配置数据和展现整个集群在某一时间点的状态Etcd以集群部署,节点间通信是通过Raft算法处理在生产环境中,集群包含至少3个节点基于Go语言实现,只被API Server访问

1.2.2 API server

APIserver整个系统的数据总线和数据中心,主要有以下功能:

集群各个功能模块之间数据交互和通信的中心枢纽,提供了集群管理的REST API接口(包括认证授权、数据校验以及集群状态变更);提供HTTP Rest接口,提供其他模块之间的数据交互和通信的枢纽(其他模块通过API Server查询或修改数据,只有API Server才直接操作etcd);资源配额控制的入口,K8S各类资源对象(Pod、RC、Service等)的增删改查及Watch

K8S通过kube-apiserver这个进程提供服务,该进程运行在单个k8s-master节点上。默认有两个端口:本地端口8080和安全端口6443。API Server可以通过curl、kubectl proxy和kubectl客户端的方式进行访问。

1.2.3 Control Manager

Controller Manager是集群内部的管理控制中心,由kube-controller-manager和cloud-controller-manager组成,是Kubernetes的大脑,它通过apiserver监控整个集群的状态,并确保集群处于预期的工作状态。kube-controller-manager通过API Server提供的接口实时监控整个集群的每个资源对象的当前状态,当发生各种故障导致系统状态发生变化时,会尝试将系统状态修复到“期望状态”。K8S本质是将运行的环境达到期望的状态,Control Manager主要管理集群内以下资源:

Node、Pod副本服务端点(Endpoint)命名空间(Namespace)服务账号(ServiceAccount)资源定额(ResourceQuota)

上图中Deployment controller监视API Server中的Deployments,ReplicaSet controller监控API Server中的ReplicaSets。

1.2.4 Scheduler

kube-scheduler收集和分析当前Kubernetes集群中所有Node节点的资源(内存、CPU)负载情况,负责分配调度Pod到集群内的节点上,它监听kube-apiserver,查询还未分配Node的Pod,然后根据调度策略为这些Pod分配节点。Scheduler调度要充分考虑诸多因素,包括:公平调度、资源高效利用、QoS、affinity和anti-affinity、数据本地化、内部负载干扰以及deadlines。从v1.8开始,kube-scheduler支持定义Pod的优先级,从而保证高优先级的Pod优先调度。并从v1.11开始默认开启。因此scheduler在调度时分为两个阶段:

predicate:过滤不符合条件的节点priority:优先级排序,选择优先级最高的节点

如上图所示,左边的Pod只能调度到gpu=true标签的Node,右边的Pod没有这种限制,可以调度到任何一个Node上。

1.2.5 Kubelet

每个Node上都运行一个kubelet服务进程,接收并执行master发来的指令,管理Pod及Pod中的容器。每个kubelet进程会在API Server上注册节点自身信息,定期向master节点汇报节点的资源使用情况,并通过cAdvisor监控节点和容器的资源,比如每个节点中容器的CPU、内存和网络使用情况。

节点管理:主要是节点自注册和节点状态更新,Kubelet在启动时通过API Server注册节点信息,并定时向API Server发送节点新消息,API Server在接收到新消息后,将信息写入etcdPOD管理:通过apiserver获取pod清单及创建pod的过程,如果发现本地的Pod被修改,则Kubelet会做出相应的修改,比如删除Pod中某个容器时,则通过Docker Client删除该容器。如果发现删除本节点的Pod,则删除相应的Pod,并通过Docker Client删除Pod中的容器容器健康检查:Kubelet定期调用容器中的LivenessProbe探针来诊断容器的健康状况cAdvisor资源监控:Kubelet通过cAdvisor获取其所在节点及容器的数据kubelet 驱逐:Kubelet会监控资源的使用情况,并使用驱逐机制防止计算和存储资源耗尽。在驱逐时,Kubelet 将Pod的所有容器停止,并将PodPhase设置为Failed

上图表示Kubelet创建POD的流程,具体包括以下:

1)获取Pod进行准入检查

准入检查主要包含两个关键的控制器:驱逐管理与预选检查。驱逐管理主要是根据当前的资源压力,检测对应的Pod是否容忍当前的资源压力;预选检查则是根据当前活跃的容器和当前节点的信息来检查是否满足当前Pod的基础运行环境,例如亲和性检查,同时如果当前的Pod的优先级特别高或者是静态Pod,则会尝试为其进行资源抢占,会按照QOS等级逐级来进行抢占从而满足其运行环境。

2)创建事件管道与容器管理主线程

kubelet接收到一个新创建的Pod首先会为其创建一个事件管道,并且启动一个容器管理的主线程消费管道里面的事件,并且会基于最后同步时间来等待当前kubelet中最新发生的事件(从本地的podCache中获取),如果是一个新建的Pod,则主要是通过PLEG中更新时间操作,广播的默认空状态来作为最新的状态。

3)同步最新状态

当从本地的podCache中获取到最新的状态信息和从事件源获取的Pod信息后,会结合当前当前statusManager和probeManager里面的Pod里面的容器状态来更新,从而获取当前感知到的最新的Pod状态。

4)准入控制检查

之前的准入检查是Pod运行的资源硬性限制的检查,而这里的准入检查则是软状态即容器运行时和版本的一些软件运行环境检查,如果这里检查失败,则会讲对应的容器状态设置为Blocked。

5)更新容器状态

在通过准入检查之后,会调用statusManager来进行POd最新状态的同步,此处可能会同步给apiserver。

6)Cgroup配置

在更新完成状态之后会启动一个PodCOntainerManager主要作用则是为对应的Pod根据其QOS等级来进行Cgroup配置的更新。

7)Pod基础运行环境准备

接下来kubelet会为Pod的创建准备基础的环境,包括Pod数据目录的创建、镜像秘钥的获取、等待volume挂载完成等操作创建Pod的数据目录主要是创建 Pod运行所需要的Pod、插件、Volume目录,并且会通过Pod配置的镜像拉取秘钥生成秘钥信息,到此kubelet创建容器的工作就已经基本完成。

1.2.6 Kube-proxy

Kube-proxy是为了解决外部网络能够访问跨机器集群中容器提供的应用服务而设计的,它运行在每个Node上,支持提供TCP/UDP sockets。Proxy主要从etcd获取Services和Endpoints的配置信息,然后根据配置信息在Node上启动一个Proxy的进程并监听相应的服务端口。当外部请求发生时,Proxy会根据Load Balancer将请求分发到后端正确的容器处理,实现网络代理和负载均衡。

kube-proxy监听API server中service和endpoint的变化情况,并通过 userspace、iptables、ipvs 或 winuserspace 等 proxier 来为服务配置负载均衡。

1.3 K8S工作原理

Controller-manager定时检测ReplicaSet的状态

Kubectl向API-server发起创建ReplicaSet请求API-server向ETCD提交创建ReplicaSetETCD上报事件“ReplicaSet Created”到API-serverAPI-server再将事件“ReplicaSet Created”上报到controller-managerController-manager向API-server发送创建Pod请求API-server向ETCD提交创建Pod

Scheduler定时检测Pod的状态,监测未调度的Pod进行多策略调度

当ETCD创建完Pod后,会上报事件“Pod Created”到API-serverAPI-server再将事件“Pod Created”返回给SchedulerScheduler会向API-server发送更新的Pod按照调度结果绑定NodeAPI-server再向ETCD中更新Pod情况

Kubelet会定时检测调度到本节点的Pod

当ETCD向API-server上报事件“节点中绑定的Pod已经更新”API-server再把事件“节点中绑定的Pod已经更新”返回给Kubelet

2、K8S集群部署及使用

2.1 K8S集群配置部署

2.1.1 环境准备

部署环境配置如下:

2.1.2 初始化系统配置

在所有节点执行以下操作:

# 关闭防火墙systemctl stop firewalldsystemctl disable firewalld[root@tango-centos01 ~]# systemctl status firewalld● firewalld.service - firewalld - dynamic firewall daemon Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled) Active: inactive (dead) Docs: man:firewalld(1)# 关闭selinuxsed -i 's/enforcing/disabled/' etc/selinux/config # 永久setenforce 0 # 临时[root@tango-centos01 ~]# setenforce 0setenforce: SELinux is disabled# 关闭swapswapoff -a # 临时sed -ri 's/.*swap.*/#&/' etc/fstab # 永久# 根据规划设置主机名hostnamectl set-hostname [root@tango-centos01 ~]# hostnametango-centos01# 在master添加hosts[root@tango-centos01 ~]# cat etc/hosts192.168.112.101 tango-centos01192.168.112.102 tango-centos02192.168.112.103 tango-centos03 # 将桥接的IPv4流量传递到iptables的链cat > etc/sysctl.d/k8s.conf << EOFnet.bridge.bridge-nf-call-ip6tables = 1net.bridge.bridge-nf-call-iptables = 1EOFsysctl --system # 生效# 时间同步yum install ntpdate -yntpdate time.windows.com

2.1.3 安装 Docker、kubeadm、kubelet

1)安装docker

wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O etc/yum.repos.d/docker-ce.repoyum -y install docker-cesystemctl enable docker && systemctl start docker[root@tango-centos01 ~]# docker -vDocker version 20.10.14, build a224086

配置镜像下载加速器

vim etc/docker/daemon.json{ "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"], "exec-opts": ["native.cgroupdriver=systemd"]}#重新启动docker进程systemctl restart docker#查看docker信息,进行确认[root@tango-centos01 ~]# docker infoClient: Context: default Debug Mode: false Plugins: app: Docker App (Docker Inc., v0.9.1-beta3) buildx: Docker Buildx (Docker Inc., v0.8.1-docker) scan: Docker Scan (Docker Inc., v0.17.0)

2)添加阿里云软件源

cat > etc/yum.repos.d/kubernetes.repo << EOF[kubernetes]name=Kubernetesbaseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64enabled=1gpgcheck=0repo_gpgcheck=0gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpgEOF

3)安装kubeadm、kubelet、kubectl

[root@tango-centos01 ~]# yum install -y kubelet-1.23.0 kubeadm-1.23.0 kubectl-1.23.0[root@tango-centos01 yum.repos.d]# systemctl enable kubeletCreated symlink from etc/systemd/system/multi-user.target.wants/kubelet.service to usr/lib/systemd/system/kubelet.service.[root@tango-centos01 ~]# kubeadm versionkubeadm version: &version.Info{Major:"1", Minor:"23", GitVersion:"v1.23.0", GitCommit:"ab69524f795c42094a6630298ff53f3c3ebab7f4", GitTreeState:"clean", BuildDate:"2021-12-07T18:15:11Z", GoVersion:"go1.17.3", Compiler:"gc", Platform:"linux/amd64"}

2.1.4 部署k8s-master(master执行)

1)kubeadm部署

kubeadm init \ --apiserver-advertise-address=192.168.112.101\ --image-repository registry.aliyuncs.com/google_containers \ --kubernetes-version v1.23.0 \ --service-cidr=10.10.0.0/12 \ --pod-network-cidr=10.20.0.0/16 \ --ignore-preflight-errors=all

--apiserver-advertise-address 集群通告地址--image-repository 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址--kubernetes-version K8s版本,与上面安装的一致--service-cidr 集群内部虚拟网络,Pod统一访问入口--pod-network-cidr Pod网络,与下面部署的CNI网络组件yaml中保持一致

初始化之后,会输出一个join命令,先复制出来,node节点加入master会使用。

kubeadm join 192.168.112.101:6443 --token 84imqm.7o7z2agrdgwvbtmc \ --discovery-token-ca-cert-hash sha256:e8231e87db94b63fdb7472c91cbee615666241b2f9119e97fbc69036e87ae937

2)拷贝k8s认证文件

[root@tango-centos01 ~]# mkdir -p $HOME/.kube[root@tango-centos01 ~]# cp -i etc/kubernetes/admin.conf $HOME/.kube/config[root@tango-centos01 ~]# chown $(id -u):$(id -g) $HOME/.kube/config[root@tango-centos01 ~]# cd $HOME/.kube[root@tango-centos01 .kube]# ll -atotal 12drwxr-xr-x 2 root root 20 May 1 00:21 .dr-xr-x---. 14 root root 4096 May 1 00:21 ..-rw------- 1 root root 5639 May 1 00:21 config

查看工作节点:

[root@tango-centos01 ~]# kubectl get nodesNAME STATUS ROLES AGE VERSIONtango-centos01 NotReady control-plane,master 6m23s v1.23.0

注:由于网络插件还没有部署,还没有准备就绪NotReady,继续操作

2.1.5 配置k8s的node节点

1)向集群添加新节点,执行在kubeadm init输出的kubeadm join命令

[root@tango-centos03 ~]# kubeadm join 192.168.112.101:6443 --token 84imqm.7o7z2agrdgwvbtmc --discovery-token-ca-cert-hash sha256:e8231e87db94b63fdb7472c91cbee615666241b2f9119e97fbc69036e87ae937 --ignore-preflight-errors=all[preflight] Running pre-flight checks [WARNING FileAvailable--etc-kubernetes-kubelet.conf]: etc/kubernetes/kubelet.conf already exists [WARNING FileAvailable--etc-kubernetes-bootstrap-kubelet.conf]: etc/kubernetes/bootstrap-kubelet.conf already exists [WARNING FileAvailable--etc-kubernetes-pki-ca.crt]: etc/kubernetes/pki/ca.crt already exists[preflight] Reading configuration from the cluster...[preflight] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -o yaml'[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"[kubelet-start] Starting the kubelet[kubelet-start] Waiting for the kubelet to perform the TLS Bootstrap...This node has joined the cluster:* Certificate signing request was sent to apiserver and a response was received.* The Kubelet was informed of the new secure connection details.Run 'kubectl get nodes' on the control-plane to see this node join the cluster.

默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要重新创建token,可以直接使用命令快捷生成:

kubeadm token create --print-join-command

2.1.6 部署容器网络(master执行)

Calico是一个纯三层的数据中心网络方案,是目前Kubernetes主流的网络方案。下载YAML:

wget https://docs.projectcalico.org/manifests/calico.yaml

下载完后还需要修改里面定义Pod网络(CALICO_IPV4POOL_CIDR),与前面kubeadm init的--pod-network-cidr指定的一样。

- name: CALICO_IPV4POOL_CIDR value: "10.20.0.0/16"

修改完后文件后,进行部署:

[root@tango-centos01 ~]# kubectl apply -f calico.yamlconfigmap/calico-config created…daemonset.apps/calico-node createdserviceaccount/calico-node createddeployment.apps/calico-kube-controllers createdserviceaccount/calico-kube-controllers createdWarning: policy/v1beta1 PodDisruptionBudget is deprecated in v1.21+, unavailable in v1.25+; use policy/v1 PodDisruptionBudgetpoddisruptionbudget.policy/calico-kube-controllers created[root@tango-centos01 ~]# kubectl get pods -n kube-systemNAME READY STATUS RESTARTS AGEcalico-kube-controllers-7c845d499-h4tdh 1/1 Running 0 14mcalico-node-bvtww 1/1 Running 0 14mcalico-node-wfdjc 1/1 Running 0 14mcoredns-6d8c4cb4d-h45n5 1/1 Running 0 27mcoredns-6d8c4cb4d-k8xvq 1/1 Running 0 27metcd-tango-centos01 1/1 Running 11 (31m ago) 29mkube-apiserver-tango-centos01 1/1 Running 9 (31m ago) 29mkube-controller-manager-tango-centos01 1/1 Running 1 29mkube-proxy-5xc5d 1/1 Running 0 27mkube-proxy-lktz4 1/1 Running 0 18mkube-scheduler-tango-centos01 1/1 Running 1 30m

#执行结束要等上一会才全部running,等Calico Pod都Running后,节点也会准备就绪。

2.1.7 部署Dashboard

Dashboard是官方提供的一个UI,可用于基本管理K8s资源。YAML下载地址:

wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.4.0/aio/deploy/recommended.yaml

默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:

vi recommended.yaml...kind: ServiceapiVersion: v1metadata: labels: k8s-app: kubernetes-dashboard name: kubernetes-dashboard namespace: kubernetes-dashboardspec: ports: - port: 443 targetPort: 8443 nodePort: 30001 selector: k8s-app: kubernetes-dashboard type: NodePort...

执行以下命令:

[root@tango-centos01 ~]# kubectl apply -f recommended.yaml namespace/kubernetes-dashboard createdserviceaccount/kubernetes-dashboard createdservice/kubernetes-dashboard createdsecret/kubernetes-dashboard-certs createdsecret/kubernetes-dashboard-csrf createdsecret/kubernetes-dashboard-key-holder createdconfigmap/kubernetes-dashboard-settings createdrole.rbac.authorization.k8s.io/kubernetes-dashboard createdclusterrole.rbac.authorization.k8s.io/kubernetes-dashboard createdrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard createdclusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard createddeployment.apps/kubernetes-dashboard createdservice/dashboard-metrics-scraper createddeployment.apps/dashboard-metrics-scraper created[root@tango-centos01 ~]# kubectl get pod -n kubernetes-dashboardNAME READY STATUS RESTARTS AGEdashboard-metrics-scraper-799d786dbf-cmb95 1/1 Running 0 2mkubernetes-dashboard-6b6b86c4c5-tkr7c 1/1 Running 0 2m1s

dashboard 服务的 namespace 是 kubernetes-dashboard,但是该服务的类型是ClusterIP,不便于我们通过浏览器访问,因此需要改成NodePort型的

[root@tango-centos01 ~]# kubectl get svc --all-namespacesNAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGEdefault kubernetes ClusterIP 10.0.0.1 443/TCP 29mkube-system kube-dns ClusterIP 10.0.0.10 53/UDP,53/TCP,9153/TCP 25mkubernetes-dashboard dashboard-metrics-scraper ClusterIP 10.15.132.106 8000/TCP 4m54skubernetes-dashboard kubernetes-dashboard ClusterIP 10.11.13.27 443/TCP 4m54s

删除现有的dashboard服务

[root@tango-centos01 ~]# kubectl delete service kubernetes-dashboard --namespace=kubernetes-dashboardservice "kubernetes-dashboard" deleted

修改,注意取值范围在30000-32767

kind: ServiceapiVersion: v1metadata: labels: k8s-app: kubernetes-dashboard name: kubernetes-dashboard namespace: kubernetes-dashboardspec: type:NodePort ports: - port: 443 targetPort: 8443 nodePort: 10443 selector: k8s-app: kubernetes-dashboard

重新查看namespace:

[root@tango-centos01 ~]# kubectl get svc --all-namespacesNAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGEdefault kubernetes ClusterIP 10.0.0.1 443/TCP 39mkube-system kube-dns ClusterIP 10.0.0.10 53/UDP,53/TCP,9153/TCP 35mkubernetes-dashboard dashboard-metrics-scraper ClusterIP 10.15.132.106 8000/TCP 14mkubernetes-dashboard kubernetes-dashboard NodePort 10.12.46.51 443:30001/TCP 41s

访问地址:https://192.168.112.101:30001/

想要访问dashboard服务,就要有访问权限,创建kubernetes-dashboard管理员角色

# 创建用户kubectl create serviceaccount dashboard-admin -n kube-system# 用户授权[root@tango-centos01 ~]# kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-adminclusterrolebinding.rbac.authorization.k8s.io/dashboard-admin created# 获取用户Token[root@tango-centos01 ~]# kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')Name: dashboard-admin-token-c5tddNamespace: kube-systemLabels: Annotations: kubernetes.io/service-account.name: dashboard-admin kubernetes.io/service-account.uid: 188ca0a3-4a09-48ff-8298-1bbf9a11df35Type: kubernetes.io/service-account-tokenData====ca.crt: 1099 bytesnamespace: 11 bytestoken: eyJhbGciOiJSUzI1NiIsImtpZCI6InMxVHV0YWxTQVBhb0tPcUtJV1pnWjlMS052ZXQ5S1dneVM3dDdWbldRdm8ifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJkYXNoYm9hcmQtYWRtaW4tdG9rZW4tYzV0ZGQiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC5uYW1lIjoiZGFzaGJvYXJkLWFkbWluIiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQudWlkIjoiMTg4Y2EwYTMtNGEwOS00OGZmLTgyOTgtMWJiZjlhMTFkZjM1Iiwic3ViIjoic3lzdGVtOnNlcnZpY2VhY2NvdW50Omt1YmUtc3lzdGVtOmRhc2hib2FyZC1hZG1pbiJ9.R_6NITlXwW1H-dB4p0ILxDz7MXJGMZ-D1kDTC1UBVWjQZ-zOs1yjDVV-1ViAYhQM99hlc2nnbdRto4LfqnDZ_8MUMUwmBSrPachSksZjC-mq4mKak2j_efVs4094I1tf6SfGLTzZ1ov_AWBnDrGCX87EUQVCziDkUUXX6NvDzW6dBxbyWJFXExA_r2DsVop3sG4uFfbubdyYseXLw1vFgBQMyKKYtZHvz96y1Fm2ANTJUMu_3ep_XAlDSQmevaMjhtDU6r8yp_w-7WuD1xGkKYB61-3sDjZEQ88tnOjlQU5aTzZUWeHKjsH0pPFJJlYmwzdT5rT7JPpdr5erx6SvWg

使用输出的token登录Dashboard

2.2 K8S集群交互

2.2.1 Kubelet与集群交互命令

2.2.2 API Rest接口

GET /< 资源名的复数格式 >:获得某一类型的资源列表,例如 GET /pods 返回一个 Pod 资源列表POST /< 资源名的复数格式 >:创建一个资源GET /< 资源名复数格式 >/< 名字 >:通过给出的名称(Name)获得单个资源GET /pods/first 返回一个名称为“first”的 PodDELETE /< 资源名复数格式 >/< 名字 >:通过给出的名字删除单个资源

例如:访问API Server

curl -k --header "Authorization: Bearer sha256~XXX" –X GET https://api.lab.example.com:6443/apis

3、总结

本文基于张建锋老师容器技术培训关于K8S的有关总结和整理,主要介绍了K8S的整体架构和一些组件的介绍,并部署一套K8S简单环境。K8S相对docker体系来说要复杂很多,其核心理念就是实现资源的自动化管理和动态调度,为了实现这一目标各个组件的功能和架构设计上也相对复杂了。

参考资料:

容器技术培训,张建锋老师https://blog.csdn.net/tiny_du/article/details/123823093https://kubernetes.io/zh/docshttps://blog.csdn.net/Tencent_TEG/article/details/111877836https://blog.csdn.net/weixin_45537987/article/details/107556796https://blog.csdn.net/weixin_30579759/article/details/112641243https://pianshen.com/article/19112068503/https://blog.csdn.net/qq_37419449/article/details/122157277

上一篇:kubernetes 安装 Prometheus + Grafana
下一篇:华为GaussDB A Ispell词典
相关文章

 发表评论

暂时没有评论,来抢沙发吧~