今天小編就為大家帶來一篇介紹k8s基礎知識的文章。小編覺得挺實用的,為此分享給大家做個參考。一起跟隨小編過來看看吧。
創新互聯建站是一家專業提供金城江企業網站建設,專注與成都網站制作、成都網站設計、外貿營銷網站建設、成都h5網站建設、小程序制作等業務。10年已為金城江眾多企業、政府機構等服務。創新互聯專業的建站公司優惠進行中。自動化運維
平臺化(ansible、git、gitlab、docker、jenkins、elk)
自動化(工具/腳本)
容器化(docker/k8s)
虛擬化
docker和虛擬機的區別
更高效的資源利用。虛擬機是一個完備的系統,容器只是一個進程。
虛擬機啟動慢,容器是秒級
一致的運行環境
CI/CD
容器核心概念
鏡像Image
(1)鏡像是一個特殊的文件系統。它除了提供容器運行時所需的程序、庫、資源、配置等文件外,還包含了一些為運行時準備的一些配置參數(例如環境變量)。鏡像不包含任何動態數據,其內容在構建之后也不會被改變。
(2)鏡像采用的是AUFS,實現分層結構。鏡像構建時,會一層層構建,前一層是后一層的基礎。每一層構建完就不會再發生改變,后一層上的任何改變只發生在自己這一層。鏡像是只讀的。創建新鏡像時,底層內容不變,只是給鏡像增加了一個新層次。
容器Container
(1)容器可以認為是鏡像的一次執行,是可讀寫的鏡像。容器只是操作系統上的一個進程,進程執行完畢將會退出。不要假定容器會一直存在,應該假設它隨時會崩潰。容器一旦出現故障,不要猶豫,直接將它刪除,再啟動一個。
(2)按照 Docker 最佳實踐的要求,容器不應該向其存儲層內寫入任何數據,容器存儲層要保持無狀態化。所有的文件寫入操作,都應該使用 數據卷(Volume)、或者綁定宿主目錄,在這些位置的讀寫會跳過容器存儲層,直接對宿主(或網絡存儲)發生讀寫,其性能和穩定性更高。數據卷的生存周期獨立于容器,容器消亡,數據卷不會消亡。
倉庫Repository
倉庫是鏡像倉庫,負責對Docker鏡像進行管理的(類似倉庫管理員),每個倉庫可以包含多個標簽(Tag),每個標簽對應一個鏡像。也可以自己創建私有倉庫。
k8s組成
這個集群主要包括兩個部分:
一個Master節點(主節點):用于對容器進行控制、調度,一般是物理服務器,
一群Node節點(計算節點):工作負載節點,里面是具體的容器,可以是物理服務器,也可以是云主機
補充:
Pod是Kubernetes最基本的操作單元。一個Pod代表著集群中運行的一個進程,它內部封裝了一個或多個緊密相關的容器。除了Pod之外,K8S還有一個Service的概念,一個Service可以看作一組提供相同服務的Pod的對外訪問接口。
k8s架構圖
k8s工作流程圖簡述
k8s配置及簡單應用
1、作為master安裝k8s(node11:192.168.4.11),同時作為node節點安裝docker
2、修改docker配置文件,使之可以使用物理機上的私有鏡像倉庫
[root@node11 k8s_pkgs]# vim /etc/sysconfig/docker
OPTIONS='--selinux-enabled=false ... //關閉selinux
[root@node11 k8s_pkgs]# vim /etc/docker/daemon.json
{
"insecure-registries": ["192.168.4.254:5000"]
}
#################################################################################
[root@room9pc01 images]# docker images //物理機(192.168.4.254)搭建私有鏡像倉庫如下
REPOSITORY TAG IMAGE ID CREATED SIZE
192.168.8.254:5000/mysql latest 7bb2586065cd 10 weeks ago 476.9 MB
192.168.8.254:5000/pod-infrastructure latest 99965fb98423 19 months ago 208.6 MB
192.168.8.254:5000/guestbook-php-frontend latest 47ee16830e89 2 years ago 510 MB
192.168.8.254:5000/tomcat-app latest a29e200a18e9 2 years ago 358.2 MB
192.168.8.254:5000/redis-master latest 405a0b586f7e 3 years ago 419.1 MB
192.168.8.254:5000/guestbook-redis-slave latest e0c36a1fa372 3 years ago 109.5 MB
1
3、啟動相關服務
k8s—master:
etcd:是一個數據庫,保存了整個集群的狀態
kube-apiserver:執行指令,提供了資源操作的唯一入口,并提供認證、授權、訪問控制、API注冊和發現等機制
kube-controller-manager:MT5實際操作www.gendan5.com/mt5.html 控制管理器,負責維護集群的狀態,比如故障檢測、自動擴展、滾動更新等
kube-scheduler:負責資源的調度,按照預定的調度策略將Pod調度到相應的機器上
k8s—node:
kubelet:接受指令的node節點(k8s客戶端),負責維護容器的生命周期,同時也負責Volume(CVI)和網絡(CNI)的管理
kube-proxy:代理節點,負責為Service提供cluster內部的服務發現和負載均衡
docker:真正的容器服務,負責鏡像管理以及Pod和容器的真正運行
[root@node11 k8s_pkgs]# rpm -q docker
docker-1.13.1-91.git07f3374.el7.centos.x86_64
#master的組件
[root@node11 kubernetes]# systemctl start etcd
[root@node11 kubernetes]# systemctl enable etcd
[root@node11 k8s_pkgs]# systemctl start kube-apiserver.service
[root@node11 k8s_pkgs]# systemctl enable kube-apiserver.service
[root@node11 k8s_pkgs]# systemctl start kube-controller-manager.service
[root@node11 k8s_pkgs]# systemctl enable kube-controller-manager.service
[root@node11 k8s_pkgs]# systemctl start kube-scheduler.service
[root@node11 k8s_pkgs]# systemctl enable kube-scheduler.service
#node的組件
[root@node11 k8s_pkgs]# systemctl start docker
[root@node11 k8s_pkgs]# systemctl enable docker
[root@node11 k8s_pkgs]# systemctl start kubelet.service
[root@node11 k8s_pkgs]# systemctl enable kubelet.service
[root@node11 k8s_pkgs]# systemctl start kube-proxy.service
[root@node11 k8s_pkgs]# systemctl enable kube-proxy.service
4、修改配置,重啟服務
[root@node11 k8s_pkgs]# ls /etc/kubernetes/
apiserver config controller-manager kubelet proxy scheduler
[root@node11 k8s_pkgs]# vim /etc/kubernetes/apiserver
KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0" //允許任何主機均可以訪問本機
把ServiceAccount從KUBE_ADMISSION_CONTROL中刪除 //刪除服務帳號
[root@node11 k8s_pkgs]# systemctl restart kube-apiserver.service
[root@node11 k8s_pkgs]# vim /etc/kubernetes/config
KUBE_MASTER="--master=http://192.168.4.11:8080" //指定master的ip地址
[root@node11 k8s_pkgs]# vim /etc/kubernetes/kubelet
KUBELET_ADDRESS="--address=0.0.0.0" //定義客戶端運行在所有地址上,便于master遠程管理
KUBELET_API_SERVER="--api-servers=http://192.168.4.11:8080" //客戶端指定服務器地址和ip
KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=192.168.4.254:5000/pod-infrastructure" //指定pod(容器組)的私有鏡像倉庫
[root@node11 k8s_pkgs]# systemctl restart kubelet
5、應用測試tomcat+mysql
[root@node11 tomcat_mysql]# vim mysql-rc.yaml /創建mysql的rc聲明文件
apiVersion: v1
kind: ReplicationController //類型聲明
metadata:
name: mysql //rc名稱
spec: //文件聲明
replicas: 1 //要求標簽是app:mysql的pod數目是1
selector: //選擇器,查找標簽是app:mysql的pod
app: mysql
template: //如果pod數目不達標,創建滿足以下條件的pod
metadata:
labels:
app: mysql
spec:
containers:
#根據yaml文件創建相關資源
[root@node11 tomcat_mysql]# kubectl create -f mysql-rc.yaml //啟動一個名稱為mysql的rc容器
[root@node11 tomcat_mysql]# kubectl get rc //獲取容器信息
NAME DESIRED CURRENT READY AGE
mysql 1 1 1 1h
[root@node11 tomcat_mysql]# kubectl get pod //該pod容器組包含一個基礎架構容器和mysql容器
NAME READY STATUS RESTARTS AGE
mysql-v0pdr 1/1 Running 0 1h
#查看到pod后,查看其詳細消息
[root@node11 tomcat_mysql]# kubectl describe pod mysql-v0pdr //查看pod信息
[root@node11 tomcat_mysql]# docker ps
#創建mysql服務
[root@node11 tomcat_mysql]# vim mysql-svc.yaml //啟動mysql容器服務腳本
apiVersion: v1
kind: Service
metadata:
name: mysql
spec:
ports:
#創建web服務
[root@node11 tomcat_mysql]# vim myweb-rc.yaml //啟動comcat容器腳本
kind: ReplicationController
metadata:
name: myweb
spec:
replicas: 5 //副本個數
selector:
app: myweb
template:
metadata:
labels:
app: myweb
spec:
containers:
瀏覽器訪問http://192.168.4.11:30001/
刪除一個容器后,k8s會發現容器數目已經少于rc聲明,它會自動創建新的對應容器
[root@node11 tomcat_mysql]# docker rm -f c1bf3822f088
[root@node11 tomcat_mysql]# docker ps
1
2
如果想要動態調整pod數目,只是將rc改個數即可
[root@node11 tomcat_mysql]# kubectl scale --replicas=3 replicationcontroller myweb //將myweb容器個數調整為3個
[root@node11 tomcat_mysql]# kubectl get rc
NAME DESIRED CURRENT READY AGE
mysql 1 1 1 1h
myweb 3 3 3 36m
[root@node11 tomcat_mysql]# kubectl get pod
NAME READY STATUS RESTARTS AGE
mysql-hg9z0 1/1 Running 0 58m
myweb-3g6rz 1/1 Running 0 32m
myweb-90jts 1/1 Running 0 32m
myweb-rvrr1 1/1 Running 0 32m
[root@node11 tomcat_mysql]# docker ps -a |awk '{print $2}' //docker個數也自動調整
ID
192.168.4.254:5000/tomcat-app
192.168.4.254:5000/tomcat-app
192.168.4.254:5000/tomcat-app
192.168.4.254:5000/pod-infrastructure
192.168.4.254:5000/pod-infrastructure
192.168.4.254:5000/pod-infrastructure
192.168.4.254:5000/mysql
192.168.4.254:5000/pod-infrastructure
刪除服務(pod也稱微服務)、rc
[root@node11 tomcat_mysql]# kubectl delete service mysql
service "mysql" deleted
[root@node11 tomcat_mysql]# kubectl delete service myweb
service "myweb" deleted
[root@node11 tomcat_mysql]# kubectl delete rc mysql
replicationcontroller "mysql" deleted
[root@node11 tomcat_mysql]# kubectl delete rc myweb
replicationcontroller "myweb" deleted
[root@node11 tomcat_mysql]# docker ps //無容器運行
php-redis主從
#redis-master
[root@node11 php_redis]# ls
frontend-controller.yaml redis-master-controller.yaml redis-slave-controller.yaml
frontend-service.yaml redis-master-service.yaml redis-slave-service.yaml
[root@node11 php_redis]# vim redis-master-controller.yaml
piVersion: v1
kind: ReplicationController
metadata:
name: redis-master
labels:
name: redis-master
spec:
replicas: 1
selector:
name: redis-master
template:
metadata:
labels:
name: redis-master
spec:
containers:
#redis-slave
[root@node11 php_redis]# vim redis-slave-controller.yaml
apiVersion: v1
kind: ReplicationController
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
replicas: 2
selector:
name: redis-slave
template:
metadata:
labels:
name: redis-slave
spec:
containers:
#frontend(前端)
[root@node11 php_redis]# vim frontend-controller.yaml
apiVersion: v1
kind: ReplicationController
metadata:
name: frontend
labels:
name: frontend
spec:
replicas: 3
selector:
name: frontend
template:
metadata:
labels:
name: frontend
spec:
containers:
[root@node11 php_redis]# kubectl create -f frontend-controller.yaml
[root@node11 php_redis]# vim frontend-service.yaml
apiVersion: v1
kind: Service
metadata:
name: frontend
labels:
name: frontend
spec:
type: NodePort
ports:
瀏覽器訪問http://192.168.4.11:30001/,測試redis主從讀寫分離
以上就是k8s基礎知識的詳細內容了,看完之后是否有所收獲呢?如果想了解更多相關內容,歡迎關注創新互聯網站制作公司行業資訊!
網站欄目:k8s基礎知識介紹-創新互聯
鏈接地址:http://vcdvsql.cn/article12/cciodc.html
成都網站建設公司_創新互聯,為您提供動態網站、網站營銷、自適應網站、品牌網站制作、搜索引擎優化、網頁設計公司
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯