袁鈺婷 高岳林 左汶鷺
摘 要:針對(duì)灰狼優(yōu)化算法(GWO)在求解復(fù)雜優(yōu)化問(wèn)題時(shí)存在后期收斂速度慢、易陷入局部最優(yōu)的不足,提出了一種漸進(jìn)式分組狩獵的灰狼優(yōu)化算法(PGGWO)。首先,設(shè)計(jì)了非線性多收斂因子以增強(qiáng)全局勘探能力、避免局部最優(yōu);其次,提出了漸進(jìn)式位置更新策略,該策略引入長(zhǎng)鼻浣熊的包圍策略和動(dòng)態(tài)權(quán)重因子,前者在提高收斂精度和速度的同時(shí)避免局部最優(yōu),后者則動(dòng)態(tài)地提升算法的收斂速度及全局尋優(yōu)性能;最后,通過(guò)與標(biāo)準(zhǔn)GWO、4個(gè)GWO先進(jìn)變體以及4個(gè)競(jìng)爭(zhēng)力較強(qiáng)的新型進(jìn)化算法對(duì)比,驗(yàn)證了PGGWO的有效性和先進(jìn)性。在24個(gè)Benchmark函數(shù)和3個(gè)實(shí)際工程優(yōu)化問(wèn)題上的實(shí)驗(yàn)結(jié)果表明,PGGWO在收斂精度和收斂速度上具有明顯優(yōu)勢(shì),并且對(duì)約束優(yōu)化問(wèn)題也是有效的。
關(guān)鍵詞:灰狼優(yōu)化算法;漸進(jìn)式分組狩獵;多收斂因子;動(dòng)態(tài)權(quán)重因子;工程約束優(yōu)化
中圖分類號(hào):TP301.6?? 文獻(xiàn)標(biāo)志碼:A??? 文章編號(hào):1001-3695(2024)05-019-1409-11
doi: 10.19734/j.issn.1001-3695.2023.10.0449
Grey wolf optimization algorithm based on progressive grouping
hunting mechanism and its engineering applications
Abstract:Focus on the shortcomings of the GWO in solving complex optimization problems, such as slow convergence speed and easy to fall into local optimum, this paper proposed a grey wolf optimization algorithm based on progressive grouping hunting mechanism(PGGWO). Firstly, it designed the nonlinear multi convergence factors to enhance the global exploration ability and avoid local optimum. Secondly, it proposed a progressive location update strategy. The strategy introduced the encirclement strategy of coati and dynamic weight factors, the former avoided local optimum while improving convergence accuracy and speed, the latter dynamically improved the convergence speed and global optimization performance of the algorithm. Finally, through comparing with GWO, 4 advanced GWO variants and 4 new with strong competitiveness, the experiment verifies the effectiveness and advancement of PGGWO. The experimental results on 24 Benchmark functions and 3 practical engineering optimization problems show that PGGWO has obvious advantages in convergence accuracy and convergence speed, and is also effective for constrained optimization problems.
Key words:grey wolf optimizer(GWO); progressive grouping hunting; multi convergence factor; dynamic weighting factor; engineering constrained optimization
0 引言
近年來(lái),優(yōu)化技術(shù)已被廣泛應(yīng)用于工程設(shè)計(jì)[1]、金融工程[2]、信息科學(xué)[3]和經(jīng)濟(jì)管理[4]等領(lǐng)域。然而,全局優(yōu)化問(wèn)題模型通常具有強(qiáng)非線性、復(fù)雜、高維的搜索空間,基于梯度信息的傳統(tǒng)優(yōu)化方法難以有效求解,因此不再適用。在過(guò)去的半個(gè)世紀(jì)里,群智能優(yōu)化算法因其原理簡(jiǎn)單、實(shí)現(xiàn)容易、能以較大概率收斂到問(wèn)題最優(yōu)解等特點(diǎn),在優(yōu)化領(lǐng)域中被廣泛應(yīng)用[5]。常見的群智能優(yōu)化算法有遺傳算法(genetic algorithm,GA)[6]、粒子群優(yōu)化算法(particle swarm optimization,PSO)[7]、差分進(jìn)化算法(differential evolution,DE)[8]、生物地理學(xué)優(yōu)化算法(biogeo-graphy-based optimization,BBO)[9]、灰狼優(yōu)化算法(GWO)[10]和白鯨優(yōu)化算法(beluga whale optimization,BWO)[11]等。雖然群智能優(yōu)化算法不能保證在所有情況下都能得到最優(yōu)解,但是它們能夠在可接受的時(shí)間內(nèi)提供合理的解[12],如非確定性多項(xiàng)式時(shí)間(NP-hard)問(wèn)題[13]。盡管群智能優(yōu)化算法由于參數(shù)少且通用性好而得到了廣泛的應(yīng)用,但其避免局部最優(yōu)的能力仍然不足[14]。此外,隨著現(xiàn)實(shí)世界優(yōu)化問(wèn)題日益趨向高維、復(fù)雜和多樣化發(fā)展,經(jīng)典的群智能優(yōu)化算法難以有效求解高維優(yōu)化問(wèn)題。
GWO是由澳大利亞學(xué)者M(jìn)irjalili等人[10]依據(jù)自然界中灰狼種群嚴(yán)格的社會(huì)等級(jí)機(jī)制和狩獵行為提出的。首先,灰狼種群被劃分為四個(gè)社會(huì)等級(jí);其次,灰狼種群根據(jù)前三等級(jí)灰狼前一次迭代的位置進(jìn)行更新。按照此過(guò)程不斷循環(huán)進(jìn)行位置移動(dòng),直至找到合適的獵物。GWO具有全局勘探能力強(qiáng)、調(diào)節(jié)參數(shù)少、原理簡(jiǎn)單、容易實(shí)現(xiàn)等優(yōu)點(diǎn)。在單峰和多模態(tài)無(wú)約束基準(zhǔn)函數(shù)的情況下,GWO的尋優(yōu)性能明顯優(yōu)于GA、PSO和DE等,在未知的搜索空間中具有較為高效的性能。當(dāng)對(duì)復(fù)合函數(shù)進(jìn)行測(cè)試時(shí),它能夠高度避免局部最優(yōu)。因此,研究發(fā)現(xiàn)GWO更適合解決現(xiàn)實(shí)世界的問(wèn)題[15]。但是從GWO本身的進(jìn)化機(jī)制來(lái)看,該算法在解決某些優(yōu)化問(wèn)題時(shí)仍存在后期收斂速度慢、易陷入局部最優(yōu)的不足[16]。針對(duì)這些不足,國(guó)內(nèi)外學(xué)者對(duì)其進(jìn)行了改進(jìn),主要包括對(duì)灰狼種群初始化、算法參數(shù)、搜索機(jī)制進(jìn)行改進(jìn)和設(shè)計(jì)新的混合算法兩方面。
王敏等人[17]利用反向?qū)W習(xí)策略產(chǎn)生初始灰狼種群以維持群體多樣性,并對(duì)當(dāng)前最優(yōu)灰狼個(gè)體進(jìn)行變異操作以減少算法出現(xiàn)早熟收斂的可能性,但生成反向種群的過(guò)程會(huì)增加不必要的計(jì)算量,且變異操作會(huì)出現(xiàn)將原本優(yōu)秀的個(gè)體變差的可能性。Yu等人[18]則對(duì)此加以改善,以跳躍率Jr對(duì)部分個(gè)體生成反向解,并擇優(yōu)組成初始種群。Chen等人[19]通過(guò)隨機(jī)添加自適應(yīng)權(quán)重和搜索策略增強(qiáng)全局勘探能力,然而其收斂速度和精度需要提高。隨后,Mafarja等人[20]提出了多種勘探與開發(fā)策略,增強(qiáng)了GWO算法的全局搜索和局部搜索能力,但劃分多個(gè)階段并使用其他算子將顯著增加計(jì)算成本。Wang等人[21]提出了一種自適應(yīng)平衡的GWO尋找高維分類的最佳特征子集,該算法采用自適應(yīng)方法提高了算法的全局勘探能力。在算法融合上,劉紫燕等人[22]提出了一種基于雜交策略的自適應(yīng)GWO,通過(guò)引進(jìn)遺傳雜交策略和蝠鲼覓食策略,有效提升了算法的收斂精度及全局尋優(yōu)性能。李全耀等人[23]結(jié)合教與學(xué)優(yōu)化算法(teaching-learning-based optimization, TLBO)[24]和PSO加快了算法的收斂速度,但其全局勘探能力仍有待加強(qiáng)。謝少鵬等人[25]針對(duì)GWO存在的局部搜索精度差的問(wèn)題,從初始種群、收斂因子等方面著手,改善GWO的局部搜索能力及收斂速度,但其全局尋優(yōu)性能有待提高。
雖然許多研究在一定程度上改善了GWO的性能,但在求解復(fù)雜多峰函數(shù)和某些工程應(yīng)用時(shí),后期收斂速度慢、易陷入局部最優(yōu)的問(wèn)題依然存在。
針對(duì)以上問(wèn)題,本文提出了一種漸進(jìn)式分組狩獵的灰狼優(yōu)化算法(grey wolf optimization algorithm based on progressive grouping hunting mechanism, PGGWO)。
與現(xiàn)有文獻(xiàn)相比,本文的貢獻(xiàn)和主要?jiǎng)?chuàng)新點(diǎn)包括:a)設(shè)計(jì)非線性多收斂因子策略以模擬灰狼種群的包圍與狩獵過(guò)程,避免局部最優(yōu);b)提出了一種漸進(jìn)式位置更新策略,將灰狼種群分為兩組,第一組灰狼學(xué)習(xí)長(zhǎng)鼻浣熊的包圍策略,另一組灰狼則遵循不同的學(xué)習(xí)率,動(dòng)態(tài)地向獵物逼近,使得算法在提高收斂速度的同時(shí)增強(qiáng)全局勘探能力、提升算法精度。
1 標(biāo)準(zhǔn)GWO
GWO將灰狼種群的社會(huì)等級(jí)分為α、β、δ和ω四種。其中,第一層為α狼,是群體中的領(lǐng)導(dǎo)者,也是最優(yōu)解;第二層為β狼,協(xié)助α狼進(jìn)行決策,是次優(yōu)解;第三層為δ狼,負(fù)責(zé)偵查、看護(hù)、放哨等事務(wù),是第三最優(yōu)解;最底層的為ω狼,聽從前三等級(jí)的狼的領(lǐng)導(dǎo)。此外,GWO通過(guò)模擬灰狼種群的狩獵過(guò)程實(shí)現(xiàn)優(yōu)化搜索的目的。
1.1 包圍獵物
在追蹤目標(biāo)獵物時(shí),灰狼通過(guò)式(1)(2)的位置更新方程圍攻獵物。
其中:D表示獵物與灰狼之間的距離向量;|·|表示兩個(gè)位置向量對(duì)應(yīng)分量作差后取絕對(duì)值所得的向量;Xp(t)表示獵物的位置;X(t)為第i只灰狼的位置,i∈N,N為種群規(guī)模;X(t+1)為t+1時(shí)刻第i只灰狼的更新位置,t為當(dāng)前迭代次數(shù), T為最大迭代次數(shù);A和C為兩個(gè)系數(shù)向量,共同平衡算法的勘探和開發(fā)能力;r1和r2為[0,1]的隨機(jī)向量;e為單位向量;收斂因子a又稱為距離控制參數(shù),隨著迭代次數(shù)的增加,a從2線性減少到0。
1.2 跟蹤獵殺獵物
為了模擬灰狼的狩獵行為,假設(shè)α、β和δ狼更了解獵物的潛在位置。于是保存迄今為止取得的三個(gè)最優(yōu)解決方案,并利用這三者的位置來(lái)判斷獵物所在的位置,同時(shí)強(qiáng)迫其他灰狼個(gè)體依據(jù)最優(yōu)灰狼個(gè)體的位置來(lái)更新其位置,逐漸靠近獵物?;依莻€(gè)體的位置更新公式如下:
其中:Dα、Dβ和Dδ分別代表灰狼個(gè)體與α、β和δ狼之間的距離向量;Xα(t)、Xβ(t)、Xδ(t)分別表示α、β、δ狼的當(dāng)前位置;X1(t)、X2(t)、X3(t)是ω狼分別根據(jù)α、β和δ狼的位置生成的指導(dǎo)位置,表示ω狼向α、β和δ狼靠近的方向和步長(zhǎng);Xi(t+1)為第i只灰狼根據(jù)α、β和δ狼的指導(dǎo)位置調(diào)整后的下一時(shí)刻的更新位置;A1、A2和A3的計(jì)算同式(3),C1、C2和C3的計(jì)算同式(4),表示狼群不同個(gè)體的勘探與開發(fā),它們都是系數(shù)向量。
1.3 搜索和攻擊獵物
GWO算法設(shè)計(jì)了A和C兩個(gè)系數(shù)向量,以平衡勘探和開發(fā)能力。當(dāng)|A|<1時(shí),狼群向獵物發(fā)起攻擊(陷入局部最優(yōu)),當(dāng)|A|>1時(shí),強(qiáng)迫灰狼與獵物分離,希望找到更合適的獵物(全局最優(yōu)解)。并且由式(3)可知,A的大小取決于收斂因子a的大小。組件C則用來(lái)幫助發(fā)現(xiàn)新的解決方案,表示灰狼所在的位置對(duì)獵物影響的隨機(jī)權(quán)重。C>1表示影響權(quán)重較大,反之,表示影響權(quán)重較小,這有助于GWO算法更隨機(jī)地進(jìn)行搜索,同時(shí)可在優(yōu)化過(guò)程中避免陷入局部最優(yōu)。
GWO算法通過(guò)模擬灰狼種群搜索、包圍和攻擊獵物三個(gè)階段的狩獵過(guò)程實(shí)現(xiàn)優(yōu)化搜索的目的。標(biāo)準(zhǔn)GWO算法的流程如圖1所示。
2 改進(jìn)的GWO算法
2.1 非線性多收斂因子
GWO算法利用隨機(jī)值大于1或小于-1的參數(shù)A來(lái)迫使灰狼與獵物分離,以模擬種群的分散程度。協(xié)調(diào)GWO全局勘探能力和局部開發(fā)能力的關(guān)鍵在于參數(shù)A的大小。隨著迭代次數(shù)的增加,a從2線性減少到0,其對(duì)應(yīng)的A值也在[-a,a]變化。因此,a的取值決定著算法的全局勘探能力和局部開發(fā)能力。然而,灰狼種群的包圍與狩獵過(guò)程非常復(fù)雜,GWO原有的線性控制參數(shù)策略不能很好地模擬這一過(guò)程,導(dǎo)致算法易陷入局部最優(yōu)。先前的研究已證明,使用非線性調(diào)整可以更好地平衡GWO的勘探與開發(fā)[26]。因此,近年來(lái)大多數(shù)國(guó)內(nèi)外學(xué)者采用非線性控制參數(shù)方法進(jìn)行改進(jìn)。例如,文獻(xiàn)[27]提出了二次函數(shù)控制參數(shù)的GWO,文獻(xiàn)[25]提出了余弦控制參數(shù)的改進(jìn)GWO的仿真策略。上述大多數(shù)改進(jìn)都是對(duì)單一的收斂因子進(jìn)行改進(jìn),忽略了灰狼種群社會(huì)等級(jí)制度的靈活性。為使算法的搜索更加靈活,文獻(xiàn)[28]提出一種競(jìng)爭(zhēng)引導(dǎo)策略來(lái)更新個(gè)體位置,該策略使用了三種不同的余弦收斂因子。本文受到文獻(xiàn)[28,29]的啟發(fā),提出一種非線性的多收斂因子策略以便更好地提高勘探能力、避免局部最優(yōu)。具體公式如下:
原算法的線性收斂因子a和本文改進(jìn)的余弦收斂因子a1對(duì)勘探和開發(fā)的影響如圖2(a)(b)所示,縱坐標(biāo)均由式(3)根據(jù)對(duì)應(yīng)的收斂因子計(jì)算。線性遞減的收斂因子a導(dǎo)致|A|在迭代中期之后保持小于1,這在一定程度上限制了種群在迭代中后期的全局勘探能力;而非線性遞減的a1使|A|在迭代的中后期保持大于1,這意味著使用該非線性余弦收斂因子可以讓種群保持更長(zhǎng)時(shí)間的勘探能力,并有更多機(jī)會(huì)跳出局部最優(yōu)。
另外,考慮到α、β、δ狼所代表的解具有不同程度的優(yōu)越性,從而對(duì)種群位置更新產(chǎn)生不同的影響,本文提出了基于余弦和正弦兩種不同的非線性收斂因子。方式如下:a)對(duì)于α和β狼,使用式(13)所示的余弦收斂因子a1,目的是使a1的值和經(jīng)典GWO收斂因子a的取值一致,從2減小到0,以確保α和β狼在引導(dǎo)狩獵過(guò)程中的領(lǐng)導(dǎo)地位;b)對(duì)于δ狼,使用式(14)所示的正弦收斂因子a2,以使其取值由1非線性增長(zhǎng)到2,對(duì)應(yīng)的|A|便更有可能超出[0,1],效果如圖2(c)所示。種群在更新過(guò)程中與δ狼保持距離,δ狼則引導(dǎo)種群進(jìn)行解空間的大范圍搜索,從而為有效地提高算法的全局勘探能力提供保證。
本文提出的兩種非線性收斂因子與式(5)所示的控制參數(shù)隨迭代次數(shù)的變化曲線如圖3所示。由圖3可知,在迭代過(guò)程中,標(biāo)準(zhǔn)GWO算法的控制參數(shù)a從2線性下降到0,而本文設(shè)計(jì)的兩個(gè)控制參數(shù)a1和a2的曲線斜率是不斷變化的。其中,a1從2非線性下降到0,迭代前期緩慢,約350代才減小到1。因此更有可能使|A|>1,擴(kuò)大α、β狼的搜索范圍、增強(qiáng)勘探能力。迭代后期,a1迅速減小以加速收斂、增強(qiáng)局部開發(fā)能力。a2則在遵循社會(huì)等級(jí)制度的前提下,由快到慢地從1非線性增加到2,以使δ狼在某種程度上能夠發(fā)現(xiàn)更多獵物,避免局部最優(yōu)。這兩種收斂因子搭配使用,使得灰狼種群能夠更好地進(jìn)行勘探和開發(fā),大大減少了陷入局部最優(yōu)的情況。
2.2 漸進(jìn)式位置更新策略
標(biāo)準(zhǔn)GWO在求解復(fù)雜優(yōu)化問(wèn)題時(shí)存在后期收斂速度慢的問(wèn)題。除此之外,在尋優(yōu)至中后期時(shí),整個(gè)灰狼種群均趨向于向α、β、δ狼所在的位置移動(dòng)。一旦α、β、δ狼困在局部范圍內(nèi)搜尋目標(biāo)獵物,整個(gè)灰狼種群將無(wú)法繼續(xù)實(shí)現(xiàn)種群的進(jìn)化[29]?;诖耍芪墨I(xiàn)[30]中長(zhǎng)鼻浣熊狩獵行為的啟發(fā),本文提出了一種漸進(jìn)式位置更新策略。首先將灰狼種群分為兩組,前一半灰狼種群在α狼的帶領(lǐng)下移動(dòng)到搜索空間中的不同位置,廣泛搜索并包圍獵物;隨后,后一半灰狼種群根據(jù)α、β和δ狼的指導(dǎo)位置快速逼近并攻擊獵物,以加速收斂。該策略通過(guò)廣度與深度的結(jié)合實(shí)現(xiàn)在問(wèn)題空間上勘探與開發(fā)的適當(dāng)平衡。
2.2.1 包圍策略
在長(zhǎng)鼻浣熊的勘探階段[30],群體中的長(zhǎng)鼻浣熊兵分兩路,其中一部分浣熊采用的包圍策略可以使長(zhǎng)鼻浣熊移動(dòng)到空間中的不同位置,很好地展現(xiàn)了長(zhǎng)鼻浣熊的全局勘探能力[31]?;诖?,本文將該策略融入灰狼種群的部分狩獵行為,使得算法在擴(kuò)大搜索范圍的基礎(chǔ)上提高收斂的速度和精度。數(shù)學(xué)模型為
Xi(t+1)=Xi(t)+r×(Xbest(t)-I×Xi(t))(15)
其中:r表示各分量取值為[0,1]的隨機(jī)實(shí)數(shù);I為一個(gè)隨機(jī)整數(shù),來(lái)自集合{1,2};Xi(t)為第i只灰狼個(gè)體在t時(shí)刻的位置;Xbest(t)為當(dāng)前種群中最佳個(gè)體(即α狼)的位置;Xi(t+1)為第i只灰狼個(gè)體在t+1時(shí)刻的位置。
每次迭代時(shí),該部分的位置更新過(guò)程將不再根據(jù)三只頭狼指導(dǎo)位置的平均值確定,而是通過(guò)灰狼個(gè)體當(dāng)前位置和α狼的位置進(jìn)行位置更新。這樣便更靠近最佳個(gè)體(α狼)的位置,提高了收斂速度。除此之外,r與I的雙重?cái)_動(dòng)使得灰狼種群在α狼周圍隨機(jī)游蕩,擴(kuò)大了搜索范圍,避免了局部最優(yōu)。這可以使種群進(jìn)一步向著全局最優(yōu)解方向進(jìn)化,提高收斂精度。
2.2.2 動(dòng)態(tài)權(quán)重因子
若α狼不是全局最優(yōu),隨著灰狼個(gè)體向三個(gè)最優(yōu)搜索代理位置靠攏時(shí),整個(gè)算法也將陷入局部最優(yōu),難以找到真正的最優(yōu)解[32]。因此,本文引入一種基于最優(yōu)個(gè)體位置向量模值的比例權(quán)重,通過(guò)權(quán)重因子的不斷變化,動(dòng)態(tài)調(diào)節(jié)算法的全局勘探能力和局部開發(fā)能力,加速算法收斂。
GWO算法中三只頭狼的位置是動(dòng)態(tài)變化的,則權(quán)重因子也應(yīng)隨著尋優(yōu)過(guò)程非線性調(diào)整變化。因此,近年來(lái)許多學(xué)者根據(jù)頭狼的指導(dǎo)位置或利用適應(yīng)度值對(duì)位置更新公式進(jìn)行了有效改進(jìn)。比如利用指導(dǎo)位置改進(jìn)的文獻(xiàn)[19,33]以及利用適應(yīng)度值改進(jìn)的文獻(xiàn)[34]等。標(biāo)準(zhǔn)GWO算法通過(guò)計(jì)算三只頭狼指導(dǎo)位置的平均值來(lái)更新灰狼位置,如式(12)所示。本文為了加強(qiáng)當(dāng)前迭代過(guò)程中最優(yōu)個(gè)體的作用,對(duì)式(12)進(jìn)行了改進(jìn),如式(19)所示。
其中:‖Xα(t)‖、‖Xβ(t)‖和‖Xδ(t)‖表示t時(shí)刻三個(gè)最優(yōu)個(gè)體(α、β和δ狼)位置的向量模值;w1(t)、w2(t)和w3(t)為基于步長(zhǎng)歐氏距離的比例權(quán)重,分別代表其余灰狼個(gè)體對(duì)α、β和δ狼的學(xué)習(xí)率,用于控制位置更新時(shí)種群個(gè)體向α、β和δ狼前進(jìn)的步長(zhǎng)和方向。文獻(xiàn)[35]從理論角度對(duì)運(yùn)用基于步長(zhǎng)歐氏距離的比例權(quán)重效果進(jìn)行了研究驗(yàn)證,表明權(quán)重因子在算法的每一次迭代中不斷變化,使得三只頭狼能夠動(dòng)態(tài)地指導(dǎo)狼群前進(jìn)。由于α狼不一定是全局最優(yōu)點(diǎn),易陷入局部最優(yōu),本文利用此特點(diǎn),在文獻(xiàn)[35]的理論基礎(chǔ)上設(shè)計(jì)了基于最優(yōu)位置的權(quán)重因子w1(t),該權(quán)重因子的大小主要取決于α狼的當(dāng)前位置,而α狼不一定是全局最優(yōu),所以每次迭代中的w1(t)也不一定小于w2(t)和w3(t)。同理,w2(t)和w3(t)的大小也在不斷變化。經(jīng)過(guò)不同程度的學(xué)習(xí),灰狼個(gè)體可以動(dòng)態(tài)調(diào)節(jié)向頭狼前進(jìn)的步長(zhǎng)和方向至迭代結(jié)束。因此,將灰狼個(gè)體的位置更新公式改進(jìn)如式(19)所示,該策略通過(guò)引入動(dòng)態(tài)權(quán)重解決了算法收斂速度慢以及易陷入局部最優(yōu)的問(wèn)題。
綜上,與經(jīng)典GWO算法的主要區(qū)別是:漸進(jìn)式位置更新策略將灰狼種群分為兩組,且不再全程依照α、β和δ狼的位置更新迭代。種群中一半的灰狼僅隸屬于α狼,而不再受α、β和δ狼的共同領(lǐng)導(dǎo),因此加快了收斂速度;另一半灰狼則遵循不同的學(xué)習(xí)率,動(dòng)態(tài)地向獵物逼近,提升了算法的全局尋優(yōu)性能。此外,在每次迭代過(guò)程中,兩組灰狼群體按照不同的更新方式并行前進(jìn)。又因受動(dòng)態(tài)變化的權(quán)重因子w1(t)、w2(t)、w3(t)與隨機(jī)擾動(dòng)因子r、I的影響,使得算法在加快收斂速度的同時(shí)避免局部最優(yōu),提升了算法的收斂精度。
算法1 PGGWO算法
2.3 復(fù)雜度分析
本節(jié)對(duì)PGGWO算法的計(jì)算復(fù)雜度進(jìn)行分析,并用Big-O表示法表示。設(shè)灰狼的種群規(guī)模為N,問(wèn)題的維數(shù)為D,最大迭代次數(shù)為T。對(duì)于GWO算法,每次迭代的初始化階段需O(N×D),適應(yīng)度函數(shù)評(píng)估需要O(N),α、β、δ三只頭狼的選擇需要O(N),位置更新過(guò)程需要O(N×D),總的計(jì)算復(fù)雜度為O(N×D×T)。而對(duì)于PGGWO算法,其每一次迭代,種群初始化需要O(N×D),適應(yīng)度函數(shù)評(píng)估需要O(N),α、β、δ三只頭狼的選擇需要O(N),兩階段的位置更新策略各需要O(N×D/2)。因此,每次迭代總的計(jì)算復(fù)雜度為O(N×D),那么整個(gè)迭代的計(jì)算復(fù)雜度為O(N×D×T)。由此可見,本文PGGWO在整體上并沒(méi)有增加計(jì)算復(fù)雜度,與標(biāo)準(zhǔn)GWO算法的計(jì)算復(fù)雜度相同。
2.4 收斂性分析
算法的收斂性是指某個(gè)算法能否在迭代時(shí)間趨于無(wú)窮的假設(shè)下,最終找到問(wèn)題的全局最優(yōu)解。
通過(guò)第3章的數(shù)值實(shí)驗(yàn)與分析可知,PGGWO算法在絕大多數(shù)測(cè)試問(wèn)題上都能收斂到零誤差均值,即找到了全局最優(yōu)解。為了更直觀地對(duì)算法收斂行為進(jìn)行綜合分析,本節(jié)給出了如圖4所示的PGGWO在多峰函數(shù)f18(表1)上的搜索歷史、軌跡、平均和最優(yōu)適應(yīng)度值收斂曲線圖。
圖4(a)展示了灰狼種群的搜索歷史,可以呈現(xiàn)搜索空間中每個(gè)個(gè)體的分布。其中黑色的圓點(diǎn)代表種群個(gè)體的分布,紅色五角星狀的點(diǎn)代表搜索空間中的全局最佳位置(參見電子版)??梢钥闯觯蠖鄶?shù)個(gè)體都分布在全局最優(yōu)解的周圍,說(shuō)明該算法具有良好的勘探能力,能夠在搜索空間中更準(zhǔn)確地確定有希望的搜索區(qū)域。為了更直觀地展示搜索空間中個(gè)體勘探和開發(fā)的順序,本節(jié)以第四只狼為例畫出了其軌跡圖,如圖4(b)所示。首先存在突變行為,然后算法逐漸收斂到全局最優(yōu),可以擴(kuò)大迭代中的隨機(jī)搜索范圍,保證勘探和開發(fā)之間的平衡。從圖4(c)(d)可以看出,PGGWO算法在迭代中一直在收斂,逐漸接近最優(yōu)解,表明
PGGWO具有良好的收斂能力。幾次收斂停滯表明算法已陷入局部最優(yōu),但由于PGGWO的多收斂因子策略,使其又跳出了局部最優(yōu),說(shuō)明該算法具有較好的避免局部最優(yōu)的能力。
3 數(shù)值實(shí)驗(yàn)與分析
為驗(yàn)證PGGWO的收斂能力與尋優(yōu)性能,證明其有效性和先進(jìn)性,本章在24個(gè)Benchmark函數(shù)上進(jìn)行數(shù)值實(shí)驗(yàn)。如表1所示, f1~f12為單峰函數(shù), f13~f24為多模態(tài)函數(shù),其中包含旋轉(zhuǎn)、噪聲等復(fù)雜函數(shù),可以綜合檢驗(yàn)算法的尋優(yōu)能力。
首先,通過(guò)與經(jīng)典GWO對(duì)比,驗(yàn)證PGGWO的有效性;其次,將PGGWO分別與OGWO[18]、MSGWO[20]、AGWO[22]和new-GWO[24]四種近幾年的GWO優(yōu)秀變體進(jìn)行比較;再次,與鯨魚優(yōu)化算法(whale optimization algorithm,WOA)[36]、BWO[11]、金豺優(yōu)化算法(golden jackal optimization,GJO)[37]和蜜獾算法(honey badger algorithm,HBA)[38]四種競(jìng)爭(zhēng)力較強(qiáng)的新型進(jìn)化算法對(duì)比,以驗(yàn)證PGGWO的先進(jìn)性;然后,通過(guò)對(duì)PGGWO的勘探開發(fā)百分占比分析進(jìn)一步揭示算法性能優(yōu)劣的真正原因;最后,將PGGWO應(yīng)用于三個(gè)實(shí)際工程問(wèn)題來(lái)檢驗(yàn)算法的實(shí)用性。
3.1 實(shí)驗(yàn)設(shè)置
本文在Windows 10操作系統(tǒng)中完成,實(shí)驗(yàn)環(huán)境是Intel CoreTM i5-8500 CPU@3.00 GHz處理器,實(shí)驗(yàn)平臺(tái)是MATLAB R2020a。所有算法的種群規(guī)模N均為50,且比較算法的參數(shù)均基于原文獻(xiàn)。為避免偶然性,所有算法在每個(gè)函數(shù)上均獨(dú)立運(yùn)行50次,記錄50次運(yùn)行結(jié)果的誤差均值(mean)和標(biāo)準(zhǔn)差(std),前者反映算法的收斂精度,后者反映算法的穩(wěn)定性,因此誤差均值是比較的重點(diǎn)。
3.2 PGGWO與標(biāo)準(zhǔn)GWO對(duì)比
將PGGWO與標(biāo)準(zhǔn)GWO在迭代次數(shù)T=500的條件下分別取D=30、50和100進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表2所示,加粗?jǐn)?shù)據(jù)表示最優(yōu)??梢钥闯?,當(dāng)D=30、50和100時(shí),PGGWO在24個(gè)函數(shù)上均獲得了最好結(jié)果,且在f1、f3、f5、f6、f8~f14、f17、f19、f22~f24這16個(gè)函數(shù)上得到了精確解(理論最優(yōu)值0)。且在f2和f4函數(shù)上誤差均值可達(dá)-200次方以上。
為了更加直觀地比較PGGWO與GWO在不同基準(zhǔn)函數(shù)上的收斂精度與收斂速度,繪制出兩個(gè)算法在f1、f7、f10、f13、f19、f22這六個(gè)基準(zhǔn)函數(shù)上的收斂曲線,如圖5所示。其中,橫坐標(biāo)為灰狼種群迭代次數(shù),縱坐標(biāo)為算法獨(dú)立運(yùn)行50次后求得平均最小誤差再取對(duì)數(shù)值。從圖5(a)可以看出,在三個(gè)維度上,GWO的收斂速度比較緩慢且精度不高,誤差指數(shù)約為-35;PGGWO擁有較好的收斂速度和精度,誤差指數(shù)可在300次迭代內(nèi)到達(dá)-300以上。在函數(shù)f7上,GWO與PGGWO收斂趨勢(shì)十分相似,但相比之下PGGWO在迭代初期便迅速收斂,比GWO的誤差均值降低了2個(gè)指數(shù)級(jí)。在函數(shù)f13上,當(dāng)D=50和100時(shí),PGGWO的收斂曲線出現(xiàn)了停滯現(xiàn)象,這表示算法到達(dá)局部最優(yōu);但在迭代中期,PGGWO可以有效跳出局部最優(yōu)并快速找到全局最優(yōu)解。這是因?yàn)镻GGWO的非線性多收斂因子策略使δ狼化身偵察狼,并在浣熊包圍策略的融入后擴(kuò)大了種群搜索范圍,增強(qiáng)了全局勘探能力,幫助群體找到更有可能存在最優(yōu)解的區(qū)域并快速收斂。在函數(shù)f19上可以發(fā)現(xiàn),當(dāng)維數(shù)從30增加到100時(shí),GWO的收斂速度和收斂精度逐漸變差,而PGGWO的收斂速度和精度一直保持不變,大約在40次迭代以內(nèi)便可得到精確解。說(shuō)明PGGWO可以有效提高GWO的收斂性能且具有良好的穩(wěn)定性。綜上,PGGWO的有效性可被證明。
3.3 PGGWO與近幾年優(yōu)秀變體對(duì)比
將PGGWO與OGWO、MSGWO、AGWO和newGWO這四種先進(jìn)變體在24個(gè)Benchmark函數(shù)上進(jìn)行對(duì)比。設(shè)置基準(zhǔn)函數(shù)的維度D=200,最大迭代次數(shù)T=1000,運(yùn)行50次。實(shí)驗(yàn)結(jié)果如表3所示,加粗?jǐn)?shù)據(jù)表示最優(yōu)結(jié)果。與其他算法相比,PGGWO在21個(gè)函數(shù)上均為最佳。其中,PGGWO在f1~f6、f8~f14、f16、f17、f19、f22~f24這19個(gè)函數(shù)上均找到了精確解。OGWO和newGWO雖然在函數(shù)f11和f23上得到了理論最優(yōu)值0,并且在函數(shù)f20和f21上優(yōu)于PGGWO,但是在其余20個(gè)函數(shù)上都不如PGGWO。稍具競(jìng)爭(zhēng)力的是AGWO,其誤差均值在函數(shù)f10、f11、f13、f19、f22和f23上均為零,并且在函數(shù)f18上略優(yōu)于PGGWO,但都處于同一指數(shù)級(jí),幾乎無(wú)差別。相比之下,MSGWO更具競(jìng)爭(zhēng)力,該算法在函數(shù)f10、f11、f13、f14、f19、f22和f23上與PGGWO一樣都獲得了精確解,并且在函數(shù)f20和f21上優(yōu)于PGGWO,但在其余的15個(gè)函數(shù)上仍有較大差異。由此可見,雖然這些GWO變體在低維環(huán)境下具有優(yōu)異的性能,但卻不能有效求解高維全局優(yōu)化問(wèn)題,并不適合高維環(huán)境。相反,即使當(dāng)D=200時(shí),PGGWO仍然在19個(gè)Benchmark函數(shù)上精確地收斂到理論最優(yōu)值,說(shuō)明PGGWO具有良好的延展性,適用于高維優(yōu)化環(huán)境。
為了清楚地比較PGGWO與四個(gè)變體之間的收斂過(guò)程,繪制了它們?cè)诓煌珺enchmark 函數(shù)上的收斂曲線。如圖6所示,PGGWO具有最快的收斂速度,在迭代初期便有著明顯的收斂效果,并且不易陷入局部最優(yōu)。PGGWO在函數(shù)f1、f5和f24上的收斂精度及速度均明顯優(yōu)于其他四種對(duì)比算法。在函數(shù)f15上,PGGWO與AGWO、MSGWO在500次迭代之后的收斂精度十分接近,但仍能發(fā)現(xiàn)PGGWO的精度要優(yōu)于其他兩種算法,且收斂速度也十分明顯。在函數(shù)f22上,PGGWO收斂更加迅速,幾乎看不到收斂曲線。
觀察所有收斂曲線圖不難發(fā)現(xiàn),PGGWO的收斂速度和精度均明顯優(yōu)于其他對(duì)比算法。這是因?yàn)樵谖恢酶码A段加入了包圍策略,使得前一半的灰狼種群無(wú)須綜合三只頭狼的指導(dǎo)位置進(jìn)行更新,只接受α狼的領(lǐng)導(dǎo),從而大大提高了算法的收斂精度。顯而易見的是,PGGWO的收斂曲線在迭代前期便急速下降,這正是引入動(dòng)態(tài)權(quán)重因子的緣故,使得后半部分的灰狼個(gè)體可以動(dòng)態(tài)調(diào)節(jié)前進(jìn)的步長(zhǎng)和方向,從而加速算法收斂。
僅從誤差均值和標(biāo)準(zhǔn)差這兩個(gè)指標(biāo)出發(fā)衡量各算法的優(yōu)化效果還遠(yuǎn)遠(yuǎn)不夠,需要進(jìn)行統(tǒng)計(jì)檢驗(yàn)以證明PGGWO具有顯著的性能優(yōu)勢(shì)[39]。本文采用Wilcoxon秩和檢驗(yàn)比較PGGWO與其他算法的差異。在5%的顯著性水平下對(duì)算法獨(dú)立運(yùn)行50次的誤差均值進(jìn)行統(tǒng)計(jì)檢驗(yàn)。結(jié)果如表3最后一行所示,“w/t/l”表示PGGWO優(yōu)于/近似于/劣于相應(yīng)的對(duì)比算法。
可以發(fā)現(xiàn),PGGWO在24個(gè)函數(shù)上的性能明顯優(yōu)于其他對(duì)比算法。并且PGGWO的性能在f1~f9、f12、f15~f18、f20、f21和f24函數(shù)上顯著優(yōu)于四種GWO變體,僅在f18、f20和f21基準(zhǔn)函數(shù)上稍遜于相應(yīng)的對(duì)比算法,但誤差均值相差不到一個(gè)指數(shù)級(jí),在其余函數(shù)上獲得了相近的結(jié)果。由此可見,PGGWO在這24個(gè)函數(shù)上具有整體有效性。
3.4 PGGWO與其他先進(jìn)算法對(duì)比
將PGGWO與WOA、BWO、GJO和HBA四種近幾年提出的競(jìng)爭(zhēng)力較強(qiáng)的進(jìn)化算法在D=200,T=1000上進(jìn)行對(duì)比。類似地,為了避免偶然性,每個(gè)算法獨(dú)立運(yùn)行50次,并使用50次計(jì)算誤差的平均值和標(biāo)準(zhǔn)差作為評(píng)價(jià)指標(biāo)。表4顯示了五種算法的數(shù)值實(shí)驗(yàn)結(jié)果,加粗?jǐn)?shù)據(jù)表示最優(yōu)結(jié)果。可以看出,PGGWO在22個(gè)Benchmark函數(shù)上獲得了最小的誤差均值,在19個(gè)Benchmark函數(shù)上獲得了理論最優(yōu)值,顯然是五種進(jìn)化算法中綜合性能最好的。WOA在函數(shù)f10上也收斂到了與PGGWO相同的精確解,但在其他23個(gè)函數(shù)上均比PGGWO差;GJO在所有函數(shù)上均不如PGGWO,并且其誤差均值沒(méi)有一個(gè)收斂到零。相比之下,BWO和HBA展現(xiàn)了較強(qiáng)的競(jìng)爭(zhēng)力,BWO雖然僅在f11上取得了零誤差值,但在函數(shù)f20和f21上勝出,優(yōu)于所有對(duì)比算法;HBA則在函數(shù)f9、f11、f13、f19和f23上均獲得了零誤差均值。盡管這些先進(jìn)算法在低維問(wèn)題上表現(xiàn)出了優(yōu)異的性能,但在求解高維優(yōu)化問(wèn)題時(shí)其性能有所下降。相反,即使當(dāng)D=200時(shí),PGGWO在19個(gè)函數(shù)上仍然能精確地收斂到理論最優(yōu)值。因此,本文的改進(jìn)策略使GWO適用于高維優(yōu)化環(huán)境,算法性能具有良好的延展性。
同樣地,為了更好地評(píng)價(jià)PGGWO和對(duì)比算法,圖7顯示了五種算法在不同Benchmark函數(shù)上的部分收斂曲線。觀察可得,PGGWO在不同的Benchmark函數(shù)上的收斂速度比其他進(jìn)化算法更快,且不易陷入局部最優(yōu)。特別地,對(duì)于函數(shù)f13、f22,PGGWO收斂迅速,幾乎看不見收斂曲線。此外,可以發(fā)現(xiàn)在函數(shù)f18上PGGWO曾多次出現(xiàn)停滯現(xiàn)象,但在幾次迭代之后便跳出了局部最優(yōu),繼續(xù)進(jìn)化。這是因?yàn)镻GGWO采用了非線性的多收斂因子策略,使得種群的搜索范圍擴(kuò)大,全局勘探能力增強(qiáng)。
為了證明PGGWO比其他對(duì)比算法具有顯著的性能優(yōu)勢(shì),采用Wilcoxon秩和檢驗(yàn),結(jié)果如表4最后一行所示。可以看出,PGGWO的性能在函數(shù)f1~f8、f12、f15~f18、f20、f21、f24上顯著優(yōu)于其他四種進(jìn)化算法;在函數(shù)f9~f11、f13、f14、f19、f22和f23上與對(duì)比算法獲得相似的結(jié)果;僅在函數(shù)f20和f21上劣于對(duì)比算法。可見,即使與先進(jìn)的進(jìn)化算法對(duì)比,PGGWO也表現(xiàn)出了較強(qiáng)的競(jìng)爭(zhēng)力。
3.5 勘探開發(fā)比分析
僅從誤差的均值和標(biāo)準(zhǔn)差進(jìn)行分析和討論并不能揭示算法性能優(yōu)劣的真正原因??碧剑╡xploration)和開發(fā)(exploitation)的平衡與否可以描述算法在迭代過(guò)程中是否達(dá)到最佳性能。勘探的目的是為了使算法具有盡可能多的局部最優(yōu)解,開發(fā)的目的是為了使算法快速收斂到全局最優(yōu)解。對(duì)勘探和開發(fā)的評(píng)價(jià)有助于更好地理解為什么某些算法在優(yōu)化問(wèn)題上表現(xiàn)優(yōu)秀或低劣。為了進(jìn)一步評(píng)估PGGWO,本節(jié)對(duì)其勘探和開發(fā)能力進(jìn)行了測(cè)試,并對(duì)結(jié)果進(jìn)行了討論。
目前鮮有研究深入分析GWO的勘探和開發(fā)能力,為了提供可靠的理論依據(jù),本節(jié)采用文獻(xiàn)[40]提出的維度多樣性測(cè)量方法評(píng)價(jià)勘探和開發(fā)。引入式(20):
其中:median(j)表示規(guī)模為NP的種群中所有個(gè)體第j維變量的中位數(shù)。由文獻(xiàn)[40]可知,式(20)被用來(lái)檢測(cè)維度多樣性。種群內(nèi)個(gè)體維度距離均值的增加代表勘探,減少代表開發(fā)。一旦計(jì)算出種群多樣性,即可進(jìn)一步判斷種群在進(jìn)化過(guò)程中的勘探占比和開發(fā)占比。勘探或開發(fā)的百分比測(cè)量可由式(21)定義。
為驗(yàn)證PGGWO平衡這兩個(gè)狀態(tài)的能力,并解釋為什么PGGWO是有效的,本節(jié)在更為復(fù)雜、應(yīng)用最廣泛的CEC2014測(cè)試集上分析了PGGWO的勘探和開發(fā)行為。圖8分別顯示了GWO和PGGWO在部分測(cè)試函數(shù)上的勘探開發(fā)占比情況。
GWO在迭代前期就迅速以局部開發(fā)為主導(dǎo),如圖8(a)~(c)所示,這會(huì)導(dǎo)致算法前期的全局勘探不足,易陷入局部最優(yōu)。而PGGWO的多收斂因子策略便較好地克服了這一缺點(diǎn),使得算法在迭代前期能保持一定的勘探占比,如圖8(d)~(f)所示??梢钥闯?,PGGWO在迭代前期注重全局范圍的搜索,尋找進(jìn)化方向。迭代中期勘探和開發(fā)逐漸交替,迭代后期開發(fā)占比快速增加至100%,以加速向目標(biāo)最優(yōu)解移動(dòng)。這是因?yàn)榘鼑呗院蛣?dòng)態(tài)權(quán)重因子可以使種群快速向目標(biāo)位置移動(dòng),使種群在中后期相對(duì)接近最優(yōu)解。這種情況下,不宜在大范圍內(nèi)進(jìn)行探索,而應(yīng)在小范圍內(nèi)尋找更優(yōu)的候選解。因此,種群在進(jìn)化后期傾向于局部開發(fā)。仔細(xì)觀察便可發(fā)現(xiàn),PGGWO在勘探與開發(fā)之間取得了良好的平衡,沒(méi)有過(guò)度注重勘探,也沒(méi)有過(guò)度集中于開發(fā)。并且從全局勘探到局部開發(fā)的過(guò)程是分階段的,前期廣泛搜尋獵物,后期快速逼近獵物,這也符合種群演化的特點(diǎn)。因此,該工作有效提高了GWO對(duì)勘探與開發(fā)的平衡能力。
3.6 工程應(yīng)用
使用三個(gè)工程設(shè)計(jì)問(wèn)題,通過(guò)與HHO(harris hawk optimization)[41]、AGWO、MSGWO、BWO和GJO比較目標(biāo)函數(shù)是否最小,進(jìn)一步驗(yàn)證PGGWO的實(shí)用性。PGGWO本身是針對(duì)無(wú)約束優(yōu)化問(wèn)題提出的,因此,求解約束優(yōu)化問(wèn)題時(shí),需要對(duì)約束條件進(jìn)行處理。根據(jù)進(jìn)化計(jì)算中約束處理方法的研究進(jìn)展,約束處理方法主要分為罰函數(shù)方法、可行性規(guī)則方法和多目標(biāo)方法三類。其中,罰函數(shù)因其簡(jiǎn)單易實(shí)現(xiàn)而最為常用。為了簡(jiǎn)單起見,采用一種常見的懲罰方法處理約束條件:
其中:gi(x)是不等式約束,hj(x)是等式約束;p是不等式約束的個(gè)數(shù),q是等式約束的個(gè)數(shù),并且都是正的常數(shù);η和λ為1或2。對(duì)于這種懲罰方法,當(dāng)候選解違反任何約束時(shí),目標(biāo)函數(shù)值都會(huì)增加,將種群從不可行解推入可行域內(nèi)。
3.6.1 壓力容器設(shè)計(jì)問(wèn)題
在該設(shè)計(jì)問(wèn)題中,目標(biāo)函數(shù)為壓力容器的總成本,包括材料、成型和焊接成本[42]。如圖9所示,壓力容器的兩端都有蓋子封頂,頭部一端的封蓋為半球狀。該優(yōu)化問(wèn)題包括四個(gè)決策變量:容器壁的厚度(Ts)、半球頭部的厚度(Th)、內(nèi)半徑(R)、和圓柱截面的長(zhǎng)度(L)。數(shù)學(xué)模型如式(24)所示。
將PGGWO在30次獨(dú)立運(yùn)行中針對(duì)壓力容器設(shè)計(jì)問(wèn)題獲得的結(jié)果與HHO、AGWO、MSGWO、BWO和GJO五種對(duì)比算法比較,測(cè)試結(jié)果如表5所示。與其他算法相比,PGGWO在求解壓力容器設(shè)計(jì)問(wèn)題上獲得了不錯(cuò)的結(jié)果。就最優(yōu)解而言,PGGWO的優(yōu)化效果要優(yōu)于其他五種對(duì)比算法。
3.6.2 拉/壓彈簧設(shè)計(jì)問(wèn)題
彈簧是工業(yè)生產(chǎn)中的重要部件,影響其結(jié)構(gòu)性能的因素很多,如圖10所示。
拉/壓彈簧的設(shè)計(jì)目的是在滿足最小繞度、震動(dòng)頻率和剪應(yīng)力的約束下,最小化拉壓彈簧的重量[43]。該問(wèn)題由三個(gè)連續(xù)的決策變量組成,即彈簧線圈直徑(d)、彈簧簧圈直徑(D)和繞線圈數(shù)(P)。數(shù)學(xué)模型表示如下:
式(25)中的目標(biāo)函數(shù)是一個(gè)典型的多變量約束優(yōu)化問(wèn)題。為了說(shuō)明PGGWO的設(shè)計(jì)效果,仍選擇HHO、AGWO、MSGWO、BWO和GJO五種優(yōu)秀算法應(yīng)用于目標(biāo)函數(shù),并對(duì)優(yōu)化結(jié)果進(jìn)行了比較。各算法得到的彈簧設(shè)計(jì)參數(shù)和目標(biāo)函數(shù)結(jié)果如表6所示。可以看出,PGGWO在設(shè)計(jì)拉/壓彈簧問(wèn)題上所得目標(biāo)函數(shù)值最小,優(yōu)于其他對(duì)比算法。
3.6.3 輪系設(shè)計(jì)
如圖11所示,該問(wèn)題的目的是使輪系的傳動(dòng)比成本最小化[44]。此問(wèn)題有四個(gè)整數(shù)變量,其中Ta、Tb、Td和Tf表示四個(gè)不同齒輪的齒數(shù)。轉(zhuǎn)動(dòng)比為(Tb/Ta)·(Td/Tf)。數(shù)學(xué)模型如下:
表7給出了PGGWO與其他五種對(duì)比算法在輪系設(shè)計(jì)問(wèn)題上的結(jié)果??梢钥吹?,PGGWO的最優(yōu)設(shè)計(jì)參數(shù)為(51,30,13,53),目標(biāo)函數(shù)值為2.31E-11。結(jié)果表明PGGWO在尋找該問(wèn)題的最優(yōu)解方面也是非常有效的,并且優(yōu)于其他對(duì)比算法。
綜上所述,在三個(gè)復(fù)雜的工程設(shè)計(jì)優(yōu)化問(wèn)題上,PGGWO比其他對(duì)比算法取得了更好的優(yōu)化效果。因此,PGGWO是一種值得推廣和應(yīng)用的先進(jìn)算法,可以廣泛應(yīng)用于約束優(yōu)化問(wèn)題。
4 結(jié)束語(yǔ)
本文通過(guò)對(duì)經(jīng)典GWO及其相關(guān)改進(jìn)算法的分析和研究,提出了一種漸進(jìn)式分組狩獵的灰狼優(yōu)化算法。首先,設(shè)計(jì)了非線性多收斂因子策略,提高全局勘探能力、避免局部最優(yōu);其次,提出了漸進(jìn)式位置更新策略,前一半灰狼個(gè)體采用浣熊的包圍策略,后一半則根據(jù)設(shè)計(jì)的動(dòng)態(tài)權(quán)重因子增強(qiáng)尋優(yōu)效果。通過(guò)深度與廣度的結(jié)合,提高了算法的收斂速度和全局尋優(yōu)性能。通過(guò)在24個(gè)Benchmark函數(shù)上的對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),PGGWO的整體性能優(yōu)于所對(duì)比的八種算法。在算法復(fù)雜度幾乎不發(fā)生變化的同時(shí),PGGWO避免了GWO易陷入局部最優(yōu)的情況,提高了收斂精度和速度。但是在個(gè)別函數(shù)上,PGGWO仍然存在收斂精度不高、穩(wěn)定性不夠好的問(wèn)題,未來(lái)將嘗試在迭代后期加入變異擾動(dòng)策略等進(jìn)行改進(jìn)。此外,在工程設(shè)計(jì)優(yōu)化問(wèn)題中,PGGWO可以獲得較好的設(shè)計(jì)參數(shù),說(shuō)明PGGWO具有一定的實(shí)際應(yīng)用價(jià)值。在今后的工作中,可以與圖像處理、入侵檢測(cè)、車輛路徑、無(wú)線傳感器網(wǎng)絡(luò)等其他領(lǐng)域更復(fù)雜的優(yōu)化問(wèn)題相結(jié)合。
參考文獻(xiàn):
[1]Gu Xin,Wang Guan,Li Ning,et al. Application of response surface optimization technology and fluid-structure interaction in the enginee-ring design of torsional flow heat exchangers [J]. Proceedings of the Institution of Mechanical Engineers,Part C: Journal of Mechanical Engineering Science,2022,236(12): 6607-6620.
[2]Kumar R R,Stauvermann P J,Samitas A. An application of portfolio mean-variance and semi-variance optimization techniques: a case of Fiji [J].Journal of Risk and Financial Management,2022,15(5): 190.
[3]Al-Odat Z A,Ali M,Abbas A,et al. Secure hash algorithms and the corresponding FPGA optimization techniques [J]. ACM Computing Surveys,2020,53(5): article No.97.
[4]Sriyakul T,Jermsittiparsert K. Optimal economic management of an electric vehicles aggregator by using a stochastic p-robust optimization technique [J]. Journal of Energy Storage,2020,32(12): 102006.
[5]Su Shen,Qin Yixiao,Yang Kaiyao. Structural optimization of unsymmetrical eccentric load steel box girder based on new swarm intel-ligence optimization algorithm [J]. International Journal of Steel Structures,2022,22(5): 1518-1536.
[6]Holland J H. Genetic algorithms [J]. Scientific American,1992,267(1): 66-73.
[7]Kennedy J,Eberhart R. Particle swarm optimization [C]// Proc of IEEE International Conference on Neural Networks. Piscataway,NJ: IEEE Press,1995: 1942-1948.
[8]Storn R,Price K. Differential evolution-a simple and efficient heuristic for global optimization over continuous spaces [J]. Journal of Global Optimization,1997,11(4): 341-359.
[9]Simon D. Biogeography-based optimization [J]. IEEE Trans on Evo-lutionary Computation,2008,12(6): 702-713.
[10]Mirjalili S,Mirjalili S M,Lewis A. Grey wolf optimizer [J]. Advances in Engineering Software,2014,69: 46-61.
[11]Zhong Changting,Li Gang,Meng Zeng. Beluga whale optimization: a novel nature-inspired metaheuristic algorithm [J]. Knowledge-Based Systems,2022,251(9): 109215.
[12]Seyyedabbasi A,Kiani F. I-GWO and Ex-GWO: improved algorithms of the grey wolf optimizer to solve global optimization problems [J]. Engineering with Computers,2021,37(1): 509-532.
[13]Seyyedabbasi A,Aliyev R,Kiani F,et al. Hybrid algorithms based on combining reinforcement learning and metaheuristic methods to solve global optimization problems [J]. Knowledge-Based Systems,2021,223(7): 107044.
[14]Jiang Jianhua,Zhao Ziying,Liu Yutong,et al. DSGWO: an improved grey wolf optimizer with diversity enhanced strategy based on group-stage competition and balance mechanisms [J]. Knowledge-Based Systems,2022,250(8): 109100.
[15]Sharma I,Kumar V,Sharma S. A comprehensive survey on grey wolf optimization [J]. Recent Advances in Computer Science and Communications,2022,15(3): 323-333.
[16]Banaie-Dezfouli M,Nadimi-Shahraki M H,Beheshti Z. R-GWO: representative-based grey wolf optimizer for solving engineering problems [J]. Applied Soft Computing,2021,106(7): 107328.
[17]王敏,唐明珠. 一種新型非線性收斂因子的灰狼優(yōu)化算法 [J]. 計(jì)算機(jī)應(yīng)用研究,2016,33(12): 3648-3653. (Wang Min,Tang Mingzhu. Novel grey wolf optimization algorithm based on nonlinear convergence factor [J]. Application Research of Computers,2016,33(12): 3648-3653.)
[18]Yu Xiaobing,Xu WangYing,Li ChenLiang. Opposition-based learning grey wolf optimizer for global optimization [J]. Knowledge-Based Systems,2021,226(8): 107139.
[19]Chen Xiaojuan,Zhang Haiyang. Grey wolf optimizer with global search strategy [C]// Proc of International Conference on Electronic Information Engineering and Computer Science. Piscataway,NJ: IEEE Press,2021: 775-779.
[20]Mafarja M,Thaher T,Too J,et al. An efficient high-dimensional feature selection approach driven by enhanced multi-strategy grey wolf optimizer for biological data classification [J]. Neural Computing and Applications,2023,35(1): 1749-1775.
[21]Wang Jing,Lin Dakun,Zhang Yuanzi,et al. An adaptively balanced grey wolf optimization algorithm for feature selection on high-dimensional classification [J]. Engineering Applications of Artificial Intelligence,2022,114(9): 105088.
[22]劉紫燕,吳應(yīng)雨,梁靜,等. 基于雜交策略的自適應(yīng)灰狼優(yōu)化算法 [J]. 計(jì)算機(jī)應(yīng)用研究,2022,39(1): 113-117. (Liu Ziyan,Wu Yingyu,Liang Jing,et al. Adaptive gray wolf optimization algorithm based on hybridization strategy [J]. Application Research of Computers,2022,39(1): 113-117.)
[23]李全耀,沈艷霞. 一種基于教與學(xué)的混合灰狼優(yōu)化算法 [J]. 控制與決策,2022,37(12): 3190-3196. (Li Quanyao,Shen Yanxia. A hybrid gray wolf optimization algorithm based on the teaching-learning optimization [J]. Control and Decision,2022,37(12):3190-3196.)
[24]Rao R V,Savsani V J,Vakharia D P. Teaching-learning-based optimization: a novel method for constrained mechanical design optimization problems [J]. Computer-Aided Design,2011,43(3): 303-315.
[25]謝少鵬,吳柏生. 基于改進(jìn)灰狼優(yōu)化算法的結(jié)構(gòu)損傷識(shí)別 [J/OL]. 計(jì)算力學(xué)學(xué)報(bào). (2023-03-09). http://cjcm.ijournals.net.cn/jslxxb/ch/reader/view_abstract.aspx?flag=2&file_no=202208220000001 & journal_id=jslxxb. (Xie Shaopeng,Wu Baisheng,Zhao Xiuting,et al. Structural damage identification based on improved gray wolf optimization algorithm [J/OL]. Chinese Journal of Computational Mechanics. (2023-03-09). http://cjcm.ijournals.net.cn/jslxxb/ch/reader/view_abstract.aspx?flag=2&file_no=202208220000001 & journal_id=jslxxb.)
[26]Mittal N,Singh U,Sohi B S. Modified grey wolf optimizer for global engineering optimization [J]. Applied Computational Intelligence and Soft Computing,2016,2016: article ID 7950348.
[27]李征南,秦江濤. 基于混合擾動(dòng)的非線性灰狼優(yōu)化算法 [J]. 軟件工程,2023,26(7): 34-39. (Li Zhengnan,Qin Jiangtao. Non-linear grey wolf optimization algorithm based on hybrid perturbation [J]. Software Engineering,2023,26(7): 34-39.)
[28]Pan Hongyu,Chen Shanxiong,Xiong Hailing. A high-dimensional feature selection method based on modified gray wolf optimization [J]. Applied Soft Computing,2023,135(3): 110031.
[29]Yang Bo,Zhang Xiaoshun,Yu Tao,et al. Grouped grey wolf optimizer for maximum power point tracking of doubly-fed induction generator based wind turbine [J]. Energy Conversion and Management,2017,133(2): 427-443.
[30]Dehghani M,Montazeri Z,Trojovská E,et al. Coati optimization algorithm: a new bio-inspired metaheuristic algorithm for solving optimization problems [J]. Knowledge-Based Systems,2023,259(1):110011.
[31]Sammen S S,Ehteram M,Khozani Z S,et al. Binary coati optimization algorithm-multi-kernel least square support vector machine-extreme learning machine model (BCOA-MKLSSVM-ELM): a new hybrid machine learning model for predicting reservoir water level [J]. Water,2023,15(8): 1593.
[32]陳敏,陳曄,牛興龍,等. 求解全局優(yōu)化問(wèn)題的多策略改進(jìn)灰狼算法 [J]. 國(guó)外電子測(cè)量技術(shù),2022,41(11): 22-29. (Chen Min,Chen Ye,Niu Xinglong,et al. Multi-strategy improved grey wolf algorithm for solving the global optimization problem [J]. Foreign Electronic Measurement Technology,2022,41(11): 22-29.)
[33]陳闖,Chellali R,邢尹. 采用動(dòng)態(tài)權(quán)重和概率擾動(dòng)策略改進(jìn)的灰狼優(yōu)化算法 [J]. 計(jì)算機(jī)應(yīng)用,2017,37(12): 3493-3497. (Chen Chuang,Chellali R,Xing Yin. Improved grey wolf optimizer algorithm using dynamic weighting and probabilistic disturbance strategy [J]. Journal of Computer Applications,2017,37(12): 3493-3497.)
[34]Adhikary J,Acharyya S. Randomized balanced grey wolf optimizer (RBGWO) for solving real life optimization problems [J]. Applied Soft Computing,2022,117(3): 108429.
[35]王秋萍,王夢(mèng)娜,王曉峰. 改進(jìn)收斂因子和比例權(quán)重的灰狼優(yōu)化算法 [J]. 計(jì)算機(jī)工程與應(yīng)用,2019,55(21): 60-65,98. (Wang Qiuping,Wang Mengna,Wang Xiaofeng. Improved grey wolf optimizer with convergence factor and proportional weight [J]. Computer Engineering and Applications,2019,55(21): 60-65,98.)
[36]Mirjalili S,Lewis A. The whale optimization algorithm [J]. Advances in Engineering Software,2016,95(5): 51-67.
[37]Chopra N,Ansari M M. Golden jackal optimization: a novel nature-inspired optimizer for engineering applications [J]. Expert Systems with Applications,2022,198(7): 116924.
[38]Hashim F A,Houssein E H,Hussain K,et al. Honey badger algorithm: new metaheuristic algorithm for solving optimization problems [J]. Mathematics and Computers in Simulation,2022,192(2):84-110.
[39]左汶鷺,高岳林. 基于隨機(jī)鄰域變異和趨優(yōu)反向?qū)W習(xí)的差分進(jìn)化算法 [J]. 計(jì)算機(jī)應(yīng)用研究,2023,40(7): 2003-2012. (Zuo Wenlu,Gao Yuelin. Differential evolution algorithm based on random neighborhood mutation and optimal opposition-based learning [J]. Application Research of Computers,2023,40(7): 2003-2012.)
[40]Hussain K,Salleh M N M,Cheng S,et al. On the exploration and exploitation in popular swarm-based metaheuristic algorithms [J]. Neural Computing and Applications,2019,31(11): 7665-7683.
[41]Heidari A A,Mirjalili S,F(xiàn)aris H,et al. Harris hawks optimization: algorithm and applications [J]. Future Generation Computer Systems,2019,97(8): 849-872.
[42]Mohammed H,Rashid T. A novel hybrid GWO with WOA for global numerical optimization and solving pressure vessel design [J]. Neural Computing and Applications,2020,32(9): 14701-14718.
[43]Celik Y,Kutucu H. Solving the tension/compression spring design problem by an improved firefly algorithm [EB/OL].(2018-11-26). https://ceur-ws.org/Vol-2255/paper2.pdf.
[44]Ziat A,Zaghar H,Taleb A A,et al. Reliable and robust optimization of the planetary gear train using particle swarm optimization and Monte Carlo simulation [J]. SAE International Journal of Materials and Manufacturing,2021,15(1): 21-33.