摘要:隨著容器技術的廣泛應用,越來越多的大中型企業(yè)在生產(chǎn)環(huán)境中通過Harbor部署Docker私有倉庫。從高可用角度考慮,如何解決在生產(chǎn)環(huán)境中因出現(xiàn)單點故障從而對項目開發(fā)造成影響并造成經(jīng)濟損失的問題變得尤為重要。該文通過對比三種Harbor高可用性方案后,對基于共享服務的Harbor同步方案進行實現(xiàn)。
關鍵詞:Harbor;高可用;Docker;私有倉庫
中圖分類號:TP393? ? ? ? 文獻標識碼:A
文章編號:1009-3044(2022)18-0028-03
開放科學(資源服務)標識碼(OSID):
1 引言
隨著云計算的飛速發(fā)展,容器技術的使用越來越普遍,容器作為鏡像創(chuàng)建的運行實例,消除了線上和線下的環(huán)境差異,可以保證應用生命周期環(huán)境的一致性和標準化,因此更好地進行Docker鏡像管理變得尤為重要。雖然用戶可以從Docker公有倉庫上下載所需鏡像,但從鏡像的安全性和上傳下載效率等各方面考慮,在企業(yè)內(nèi)部部署Dockert私有倉庫變得尤為重要[1]。
Docker私有倉庫的搭建可利用Registry和Harbor兩種形式。Registry是Docker官方的一個私有倉庫鏡像,可以將本地的鏡像打標簽進行標記,然后push到以Registry創(chuàng)建的容器的私有倉庫中,但Registy不提供WEB界面,不便于管理[2]。Harbor作為一個用于存儲和分發(fā)Docker鏡像的企業(yè)級Registry服務器,提供管理UI,基于角色的訪問控制,AD/LDAP集成,審計日志等企業(yè)用戶需求的功能[3]。因此眾多大中型企業(yè)用戶在生產(chǎn)環(huán)境中選擇利用Harbor來搭建企業(yè)內(nèi)部的Docker私有倉庫,以提高在生產(chǎn)環(huán)境傳輸鏡像的效率。
從高可性角度考慮,在生產(chǎn)環(huán)境中選用搭建單節(jié)點的Harbor,則可能出現(xiàn)當單節(jié)點Harbor發(fā)生故障時,其從開發(fā)到交付的流水線就可能癱瘓,造成相應的經(jīng)濟損失。因此在利用Harbor搭建企業(yè)內(nèi)部的Docker私有倉庫時,如何設計Harbor高可用性方案是多數(shù)企業(yè)在生產(chǎn)環(huán)境中需要關注的問題。本文通過對3種Harbor高可用性方案進行對比,對基于共享服務的harbor同步方案加以實現(xiàn)。
2 Harbor高可用性方案概述
Harbor高可用性主要解決單點故障問題。從允許服務中斷的時間以及可以承受的成本和損失的角度考慮,通常有以下幾種解決方案。
(1)Harbor主從復制同步方案
該方案通過構建Harbor主節(jié)點和多個Harbor從節(jié)點,利用Harbor官方提供的主從復制方案來解決鏡像同步的問題。通過將Harbor主節(jié)點的鏡像同步到Harbor從節(jié)點,即一主多從的鏡像發(fā)布模式,從而解決大規(guī)模鏡像發(fā)布的問題。同時從滿足大量節(jié)點的下載需注,還需在多個Harbor節(jié)點做負載均衡,如圖1所示。
該方案雖然在一定程度上解決了鏡像同步的問題,但當Harbor主節(jié)點出現(xiàn)故障后,各Harbor從節(jié)點將無法同步,因此該方案仍然沒有解決Harbor主節(jié)點單點故障的問題。此外,主從模式還存在以下缺陷[4]。
① 當某從節(jié)點的鏡像倉庫出現(xiàn)故障,其對應的客戶端將指向其他從節(jié)點,其他從節(jié)點存在因負載過重導致故障問題。
② 當將鏡像推送到主節(jié)點的鏡像倉庫后,與其他從節(jié)點進行同步仍需一段時間,存在短暫時間內(nèi)各鏡像倉庫不一致的問題,若上傳的鏡像數(shù)量多、網(wǎng)絡帶寬不足,延時時間將會更長。若在鏡像同步過程中出現(xiàn)網(wǎng)絡故障,存在從節(jié)點因無法同步,后期需花費大量時間進行修復工作。
③ 由于所有節(jié)點都存儲全部鏡像副本,從節(jié)點數(shù)量越多,耗費的空間就越大。
(2)Harbaor多主復制同步方案
該方案主要通過構建多個Harbor節(jié)點,在多個harbor節(jié)點之間利用主從復制同步方案來實現(xiàn)節(jié)點之間的雙向同步,以保證數(shù)據(jù)的一致性。并通過配置負載均衡實現(xiàn)多個Harbor節(jié)點對外提供單一的harbor服務。具體方案如圖2所示。
如圖2所示,當客戶端發(fā)出請求后,由負載均衡器接收的請求分流到不同的Harbor節(jié)點,只要有一個Harbor節(jié)點中有新鏡像,就會通過同步復制策略將新鏡像復制給其他的Harbor節(jié)點。這樣即使有一個Harbor節(jié)點出現(xiàn)故障,其他的Harbor節(jié)點仍然可以提供服務,從而在一定程度上實現(xiàn)Harbor高可用性。
但該方案的主要問題是無法保障鏡像的一致性,即假設當某Harbor節(jié)點出現(xiàn)故障,該Harbor節(jié)點不能提供服務時,如果有新鏡像進來,則該鏡像會分流到其他的Harbor節(jié)點,后面即使恢復出現(xiàn)故障的Harbor節(jié)點,其他Harbor節(jié)點也不會自動將新鏡像同步到恢復的Harbor節(jié)點。需要手動在其他Harbor節(jié)點上開啟同步復制策略,才能進行數(shù)據(jù)同步,保證各Harbor節(jié)點數(shù)據(jù)的一致性。
(3)基于共享服務的Harbor同步方案
該方案主要通過多個Harbor節(jié)點共享PostgreSQL、Redis、MySQL和后端存儲,通過負載均衡器實現(xiàn)多個Harbor實例提供Harbor服務。具體方案如圖3所示。
如圖所示,當客戶端發(fā)出請求后,由負載均衡器接收的請求分流到不同的Harbor節(jié)點。由于多個harbor節(jié)點共享同一后端存儲,因此任何一個harbor節(jié)點均可以讀取到持久化存儲在后端存儲上的鏡像,即使某Harbor節(jié)點出現(xiàn)故障,后期恢復故障后,也不會出現(xiàn)各Harbor節(jié)點數(shù)據(jù)不一致的問題。因此該方案在實際生產(chǎn)環(huán)境中比較具有可行性。
3 基于共享服務的harbor同步方案的實現(xiàn)
本方案選用的案例以四臺部署在VMware Workstation 15中的Centos7.2虛擬機作為宿主機,均已預先安裝好Docker,并與外網(wǎng)互通,且關閉防火墻和Selinux配置,各節(jié)點基本信息如表1所示[5]。
步驟1:NFS后端存儲的部署。
(1)在nfsstorage節(jié)點上配置
[root@nfsstorage ~]# mkdir -p /data/nfs
[root@nfsstorage ~]# yum -y install nfs-utils rpcbind
[root@nfsstorage ~]# cat "/data/nfs? ?192.168.200.0/24(rw,no_root_squash)">/etc/exports
[root@nfsstorage ~]# systemctl restart rpcbind
[root@nfsstorage ~]# systemctl restart nfs
(2)在harbor主從節(jié)點上都需配置,本案例僅以harbor-master節(jié)點為例。
[root@harbor-master ~]# yum -y install nfs-utils rpcbind
[root@harbor-master ~]# systemctl start rpcbind
[root@harbor-master ~]# systemctl start nfs
[root@harbor-master ~]# mount 192.168.200.30:/data/nfs /data/storage/
[root@harbor-master ~]# vim /etc/fstab
192.168.200.30:/data/nfs? /data/storage? ?nfs4? ? ? ? defaults,_netdev? ? 0? ?0
步驟2:在nfsstorage節(jié)點配置mysql、redis、postgres容器,以給harbor提供外部數(shù)據(jù)庫數(shù)據(jù)讀取。
[root@nfsstorage ~]# docker run -itd --name redis_test -p 6379:6379 redis:alpine
[root@nfsstorage ~]# docker run -itd --name postgres_test -p 5432:5432 -e POSTGRES_PASSWORD=123123 postgres:latest
[root@nfsstorage ~]# docker run -itd --name mysql_test -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123123 mysql:5.6 --character-set-server=utf8
[root@nfsstorage ~]# docker rename postgres_test clair_db
[root@nfsstorage ~]# docker rename mysql_test harbor_db
[root@nfsstorage ~]# docker rename redis_test session
步驟3:在harbor主從節(jié)點上都需配置進行Harbor部署,本案例僅以主節(jié)點為例。
(1)將harbor安裝包解壓
[root@harbor-master ~]# tar -zxvf harbor-offline-installer-v1.5.0.tgz
(2)將harbor目錄下ha子目錄的registry.sql文件導入nfsstorage節(jié)點的mysql數(shù)據(jù)庫。
[root@harbor-master ~]# yum -y insatall mariadb
[root@harbor-master ~]# mysql -uroot -p123123 -h192.168.200.30 -P3306 < harbor/ha/registry.sql
(3)修改docker-compose.yml配置文件。
[root@harbor-master harbor]# vim ha/docker-compose.yml
- /data/storage:/storage:z
(4)修改harbor目錄下harbor.cfg文件
hostname = www.cnhbliti.com
ui_url_protocol = https
ssl_cert = /etc/ssl/harbor/www.cnhbliti.com.crt
ssl_cert_key = /etc/ssl/harbor/www.cnhbliti.com.key
harbor_admin_password = Harbor12345
db_host = 192.168.200.30
db_password = 123123
db_port = 3306
db_user = root
redis_url = 192.168.200.30:6379
clair_db_host = 192.168.200.30
clair_db_password = 123123
clair_db_port = 5432
clair_db_username = postgres
clair_db = postgres
(5)配置https
[root@harbor-master harbor]# yum -y install opssl
[root@harbor-master harbor]# mkdir -p /data/ssl
[root@slave harbor]# cd /data/ssl
[root@harbor-master ssl]# openssl req -newkey rsa:4096 -nodes -sha256 -keyout ca.key -x509 -days 365 -out ca.crt
[root@harbor-master ssl]# openssl req -newkey rsa:4096 -nodes -sha256 -keyout www.cnhbliti.com.key -out www.cnhbliti.com.csr
[root@harbor-master ~]# openssl x509 -req -days 365 -in www.cnhbliti.com.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out www.cnhbliti.com.crt
(6)將自簽發(fā)的域名證書添加到系統(tǒng)信任,并設置證書立即生效
[root@harbor-master ssl]# cp www.cnhbliti.com.crt /etc/pki/ca-trust/source/anchors/
[root@harbor-master ssl]# update-ca-trust extract
[root@harbor-master ssl]# update-ca-trust enable
[root@harbor-master ssl]# mkdir -p /etc/ssl/harbor
[root@harbor-master ssl]# cp /data/ssl/www.cnhbliti.com.key /etc/ssl/harbor/
[root@harbor-master ssl]# cp /data/ssl/www.cnhbliti.com.crt /etc/ssl/harbor/
[root@harbor-master ssl]# ll /etc/ssl/harbor/
(7)部署并啟動harbor
[root@harbor-master harbor]# ./install.sh --with-clair --ha
步驟4:DNS配置
(1)在ldns節(jié)點進行DNS配置,配置完后,能夠正常解析主從節(jié)點和Vip節(jié)點。
(2)在所在節(jié)點配置/etc/reslove.conf文件,添加如下內(nèi)容。
nameserver 192.168.200.40
步驟5:將主節(jié)點的相應證書復制到從節(jié)點
[root@harbor-master ssl]# scp www.cnhbliti.com.crt 192.168.200.20:/etc/pki/ca-trust/source/anchors/
[root@harbor-master ssl]# scp /data/ssl/www.cnhbliti.com.key 192.168.200.20:/etc/ssl/harbor/
[root@harbor-master ssl]# scp /data/ssl/www.cnhbliti.com.crt 192.168.200.20:/etc/ssl/harbor/
步驟6:部署keepalive,實現(xiàn)vip,配置完成后,harbor-master節(jié)點為vip的主節(jié)點,harbor-salve節(jié)點為vip的備用節(jié)點,驗證效果如下所示。
[root@harbor-master ssl]# ip addr | grep 192.168.200.100
inet 192.168.200.100/32 scope global ens34
[root@harbor-master ssl]# systemctl stop network
[root@harbor-master ssl]# ip addr | grep 192.168.200.100
inet 192.168.200.100/32 scope global ens34
4 結語
本文通過對比Harbor主從復制同步、Harbaor多主復制同步和基于共享服務的Harbor同步方案,選擇三個方案中最優(yōu)的基于共享服務的harbor同步方案加以實現(xiàn)。該方案解決了在生產(chǎn)環(huán)境中利用Harbor搭建私有倉庫的單點故障問題,極大地提高了鏡像傳輸效率,并為利用其他技術搭建Docker私有倉庫提供了一定的借鑒思想。
參考文獻:
[1] 李群.企業(yè)級Docker Registry(Harbor)的研究[J].數(shù)碼設計,2019(7):105-106.
[2] 劉亞.關于Docker鏡像倉庫技術的研究[J].科學技術創(chuàng)新,2021(29):76-78.
[3] 劉京義.使用Harbor創(chuàng)建Docker企業(yè)私有庫[J].網(wǎng)絡安全和信息化,2021(5):99-104.
[4] 王曉峰,向超勝,牛軍,等.電信行業(yè)分布式鏡像倉庫的研究[J].電信技術,2017(9):36-38.
[5] 程寧,戴遠泉.基于Jenkins持續(xù)集成部署研究與實現(xiàn)[J].電子制作,2021(22):46-48.
【通聯(lián)編輯:代影】