奚茂龍,吳小俊,方偉,孫俊
1.無錫職業(yè)技術學院控制技術學院,江蘇無錫214121
2.江南大學物聯(lián)網(wǎng)工程學院,江蘇無錫214122
◎博士論壇◎
一種具有自我更新機制的量子粒子群優(yōu)化算法
奚茂龍1,2,吳小俊2,方偉2,孫俊2
1.無錫職業(yè)技術學院控制技術學院,江蘇無錫214121
2.江南大學物聯(lián)網(wǎng)工程學院,江蘇無錫214122
自然界中生命體都存在著有限的生命周期,隨著時間的推移生命體會出現(xiàn)老化并死亡的現(xiàn)象,這種老化機制對于生命群體進化并保持多樣性有重要影響。針對量子行為粒子群(QPSO)算法中粒子存在老化并使得算法存在早熟收斂的現(xiàn)象,將生命體的自我更新機制引入了QPSO算法,在粒子群體進化中提出領導者粒子和挑戰(zhàn)者粒子,隨著群體粒子的老化,當領導者粒子領導力耗盡不能引導群體進化時,挑戰(zhàn)者粒子通過競爭更新機制成為新的領導者粒子引導群體進化并保持群體多樣性,并證明了算法的全局收斂性。將提出的算法與多種典型改進QPSO算法通過12個CEC2005 benchmark測試函數(shù)進行比較,對結果進行了分析。仿真結果顯示,該算法具有較強的全局搜索能力,尤其在7個多峰測試函數(shù)中,綜合性能最優(yōu)。
粒子群算法;量子行為;自我更新機制;多樣性;全局收斂;老化
Kennedy等人在1995年模擬鳥群和魚群的覓食行為提出了粒子群優(yōu)化算法(Particle Swarm Optimization,PSO)[1]。在算法進化過程中,群體共享最優(yōu)位置信息;在群體最優(yōu)位置信息和自身最優(yōu)信息引導下,通過搜索多維問題解空間,不斷更新自身速度和位置,并不斷追隨和比較問題空間候選解,最終發(fā)現(xiàn)問題的最優(yōu)解或局部最優(yōu)解。粒子群算法具有進化方程簡單、搜索能力較好、收斂速度快的特點,自提出以來已經(jīng)成功應用在很多方面。但PSO算法本身并不是一種全局優(yōu)化算法[2],許多學者對它進行了大量的研究工作,提出了一些改進方法,取得了一定的改進效果[3-4]。在深入研究社會智能群體進化過程的基礎上,Sun等人在分析了粒子群優(yōu)化算法機理,將量子理論引入了PSO算法,提出了具有全局搜索能力的量子行為粒子群優(yōu)化算法(Quantum-behaved Particle Swarm Optimization,QPSO)[5-6]。QPSO算法具有計算簡單、編程易于實現(xiàn)、控制參數(shù)少等特點,引起了國內外相關領域眾多學者的關注和研究。Xi等人在計算QPSO算法的平均最優(yōu)值時,根據(jù)粒子的優(yōu)劣程度引入了非線性權重系數(shù),提升了算法的尋優(yōu)能力[7];Sun等人在文獻[8]中給出了QPSO算法的粒子行為分析以及參數(shù)選擇方法;文獻[9]在QPSO算法中引入了變異算子,改善算法全局搜索能力。同時,QPSO算法也成功應用于許多實際問題,Omkar等人將QPSO算法應用于組合結構的多目標優(yōu)化問題[10],Indiral等人將QPSO算法應用于關聯(lián)規(guī)則挖掘[11],同時算法也在投資組合選擇問題中得到了應用[12]。
群體智能算法中,一直存在著如何平衡收斂速度和全局尋優(yōu)能力的問題,而老化(aging)是生命群體的個體不可避免的生命進程,群體中粒子老化并被新的粒子替代可以有益于群體進化結構,能夠提升群體的多樣性。QPSO算法是一種典型的群體智能算法,同樣在進化后期存在粒子老化現(xiàn)象,容易陷入局部最優(yōu),文章提出在QPSO算法中引入領導者粒子和挑戰(zhàn)者粒子機制,實現(xiàn)群體的自我更新,提升群體多樣性并跳出局部最優(yōu)能力;并研究了粒子老化過程中的領導力、生命周期、更新規(guī)則等要素,提出了一種具有自我更新機制的改進量子粒子群優(yōu)化算法(QPSO with self-renewal mechanism,SMQPSO)。通過matlab編程,選取經(jīng)典高維測試函數(shù),在不同自我更新機制參數(shù)下進行了反復測試;并和QPSO及其他改進算法進行了比較分析,證明了該算法能夠顯著提高搜索效率和全局優(yōu)化性能。
在PSO算法中,使用了群體最優(yōu)位置信息(global best position,Pg),個體最優(yōu)位置信息(personal best position,Pi),粒子的速度信息Vi和位置信息Xi?;玖W尤核惴ǖ倪M化方程為:
通過對PSO算法中粒子運動軌跡的詳細分析,Clerc等人[13]指出如果每個粒子都能夠收斂到它的局部吸引點P′i=(P′i1,P′i2,…,P′iD),那么PSO算法可能收斂。其中
式(3)中,t是算法當前迭代次數(shù),r1d(t)和r2d(t)是[0,1]之間的隨機數(shù),Pid為粒子的當前最優(yōu)位置d維值,Pgd為群體的全局最優(yōu)位置d維值。
在量子理論中,量子空間粒子的速度和位置是不能同時確定的,這更符合智能群體進化決策過程,每個粒子的狀態(tài)都由波函數(shù)ψ來確定,|ψ|2是粒子位置的概率密度函數(shù)。Sun等人將PSO算法的進化系統(tǒng)假設為量子系統(tǒng),在粒子群算法第t次迭代,粒子i在D維的空間運動,該粒子在第j維的勢阱為P′ij(t),則在第t+1次迭代可以得到粒子i的波函數(shù)為:
則概率密度函數(shù)Q為:
概率分布函數(shù)F為:
應用Monte Carlo方法,可以計算出在第t+1次迭代,第i粒子第j維的位置:
其中Lij(t)的值由下式確定:
式(8)中M稱為平均最優(yōu)位置,也記為mbest,是所有粒子自身最優(yōu)位置的中心點,由下式計算得到:
其中N是群體規(guī)模的大小,Pi是第i個粒子自身最優(yōu)位置。因此,可以得到粒子的位置更新方程:
式
(10)中,β稱為壓縮擴張因子,用來調節(jié)粒子的收斂速度。
粒子當前最優(yōu)位置Pi和全局最優(yōu)位置Pg的更新方式與基本PSO算法的更新方式完全相同,即
這里粒子位置更新公式(10)的PSO算法為具有量子行為的粒子群優(yōu)化算法(Quantum-behaved ParticleSwarm Optimization,QPSO)[5-6]。
3.1QPSO算法中粒子進化分析
為了研究QPSO算法中群體每個粒子進化迭代過程,提出了相對進化速度概念。個體粒子的相對進化速度可以通過式(13)進行定量的計算描述。
其中,fi是第i粒子的當前適應度函數(shù)值,fPi是粒子i個體的最優(yōu)適應度函數(shù)值(最小化問題),如果Δf的值接近于0或等于0,表明粒子進化基本停止不前,群體粒子可能陷入了局部區(qū)域。本文使用了CEC2005 benchmark標準測試函數(shù)[14],在這些測試函數(shù)中f1~f5為單峰問題函數(shù),f6~f12為多峰函數(shù)。圖1給出了群體粒子為20,變量維數(shù)為10維,迭代次數(shù)10 000次的條件下,使用QPSO算法測試f1函數(shù)的粒子進化過程,不同的顏色代表不同的粒子。圖2給出了群體粒子為40,變量維數(shù)為30維,迭代次數(shù)10 000次的條件下,使用QPSO算法測試f6的粒子進化過程。
圖1 使用QPSO算法優(yōu)化f1函數(shù)的粒子進化過程
圖2 使用QPSO算法優(yōu)化f6函數(shù)的粒子進化過程
從圖1粒子群體的進化過程可以看出,對于f1測試函數(shù),在進化初期,各個粒子Δf的值變化較大,群體能夠處于較優(yōu)的進化狀態(tài);在進化的后期,各個粒子Δf開始有一定的聚集,群體粒子的進化速度逐步下降,在一定程度上停滯于局部最優(yōu)區(qū)域。對于圖2中的f6測試函數(shù),由于是變換多峰函數(shù),尋優(yōu)難度更大,在迭代次數(shù)為3 500次之前,群體還有較好的進化性能,但到了5 000次迭代后,群體粒子的Δf迅速聚集在0值附近,在后續(xù)的迭代過程中不再變化,即粒子已全部聚集到較小區(qū)域的附近,并只在解的鄰近小區(qū)域進行搜索??梢灾溃坏┧惴ㄔ谒阉鬟^程中陷入局部最優(yōu),往往很難跳出局部最優(yōu)解區(qū)域,繼續(xù)全局最優(yōu)解的搜尋。從圖1和圖2分析可知,QPSO算法容易在進化后期陷入局部區(qū)域的搜索,需要通過一定的更新機制增加群體的全局搜索能力。
3.2算法思想
在QPSO算法中,粒子的進化過程是通過迭代方程(3)(9)(10)實現(xiàn)的。群體粒子的更新依賴于自身最優(yōu)(Pi)和全局最優(yōu)(Pg)的粒子信息,由Pi和Pg引導粒子進行解空間范圍內的尋優(yōu)。在這種搜索機制下,當群體粒子被吸引到一個局部最優(yōu)范圍時,由于Pi和Pg的吸引作用,隨著迭代次數(shù)的增加,Pi和Pg并沒有得到更新,群體的多樣性降低,因此群體很難跳出局部最優(yōu)范圍,在更大范圍中尋優(yōu),影響了算法的尋優(yōu)性能。
在SMQPSO算法中,為了增加群體粒子的多樣性,防止長時間陷入局部最優(yōu),引入了有生命周期的領導者粒子(Leading Particle),替換基本QPSO算法中的Pg,文中稱為Pleader。不同于文獻[9]中直接引入變異算子策略,本文的領導者粒子需要在迭代過程中不斷評價領導者粒子的領導力(Power),判斷當前領導者粒子是否能夠繼續(xù)引導群體尋優(yōu),從而判斷領導者粒子是否需要更新;同時,對于個體自身最優(yōu)Pi也引入了生命周期的概念,文中稱為Pi_l,在一定條件下,如果個體粒子不能尋優(yōu),也需要進行更新。因此,對于SMQPSO算法,進化方程(3)(9)(10)修改為:
3.3粒子的生命周期
在SMQPSO算法,粒子的生命周期(life time)對于算法的性能是很重要的。SMQPSO算法中,粒子在進化過程中存在的時間采用了動態(tài)生存時間概念,通過測量粒子以往和現(xiàn)在的表現(xiàn)提出粒子領導力(leading power),通過領導力評價粒子能否繼續(xù)引導群體或自身進化,并判斷是否需要更新。
粒子的領導力是通過在群體歷史進化過程中,引導群體或個人進化表現(xiàn)累積的。對于Pleader,在引導群體粒子進化過程中,有四種情況:(1)引導了群體進化和個體進化;(2)引導群體進化,而個體沒有進化;(3)引導個體進化,而群體沒有進化;(4)群體和個體都沒有進化。對于Pi_l,在引導個體進化過程中,有兩種情況:(1)引導了個人進化;(2)沒有能夠引導個體進化。對于最小化問題,可以將粒子的領導力通過公式(17)(18)(19)表示出來。
其中,ΔPi(t)表示個體粒子引導自身進化的領導力,表示Pleader引導群體進化的領導力,ΔPg(t)表示個體最優(yōu)進化的引導力,l表示相應粒子的生命周期。文中,用Powerleader表示Pleader的領導力,Poweri_l表示群體中第i個粒子的領導力,則粒子的領導力分析為:
(5)當ΔPi(t)<0時,說明Pi_l領導力強,則Poweri_l= Poweri_l+ζ1。
(6)當ΔPi(t)>0時,說明Pi_l領導力差,則Poweri_l= Poweri_l+ζ2。
在SMQPSO算法進化過程中,根據(jù)累積領導力,判斷粒子是否需要更新。
3.4領導粒子更新
領導粒子在進化過程中,領導力隨著進化過程不斷動態(tài)變化。當領導粒子在一輪迭代進化過程中,引導了群體進化,則領導力累積增加;當領導粒子沒有能夠引導群體進化,則領導力下降。通過判斷每一輪的進化結果,計算領導粒子的領導力。當領導粒子的領導力消耗殆盡,則意味著群體粒子陷入了局部最優(yōu),領導粒子沒有能力繼續(xù)引導群體尋優(yōu)。在這種情況下,就必須有新的粒子作為領導粒子引導群體尋優(yōu),文中將新的粒子稱作潛在領導粒子(Pcandidate),需要進一步判斷潛在領導粒子是否能夠作為領導粒子引導群體尋優(yōu)。
為了保證領導粒子結構的完整性,并考慮運算復雜度因素,文中采用了對Pleader的每一維按照一定的概率(pro)初始化的方式產(chǎn)生Pcandidate。按照均勻分布的方式在(0,1)中產(chǎn)生一個隨機數(shù)(rndj),如果rndj<pro,Pleader粒子對應的j維數(shù)值在解空間(Lower,Uper)中重新初始化;如果在此過程中,沒有任何一維能夠滿足條件初始化,則隨機指定Pleader中的一維初始化,產(chǎn)生Pcandidate。具體過程如圖3所示。
圖3 領導粒子的更新過程
由于領導者粒子并不是每一輪進化都進行更新,在最極端情況下,每一輪進化群體都不能尋找到更優(yōu)值,領導者粒子的更新次數(shù)和進化迭代次數(shù)m相同,即m次進化后,領導者粒子計算更新了m次,則時間復雜度為O(m)。
同樣,對于個體引導粒子Pi_l的領導力消耗完后,也需要一個產(chǎn)生個體引導候選粒子Pi_l_candidate,過程同Pcandidate產(chǎn)生過程。Pcandidate和Pi_l_candidate產(chǎn)生后,還需要評價它們的領導力,是否能夠引導群體尋找問題的更優(yōu)解。
如果f(Pcandidate)<f(Pleader),說明群體領導候選粒子Pcandidate是合適的,則Pleader=Pcandidate;反之,是不合適的,繼續(xù)使用原來Pleader引導當前迭代進化。
如果f(Pi_l_candidate)<f(Pi_l),說明個體領導候選粒子Pi_l_candidate是合適的,則Pi_l=Pi_l_candidate;反之,是不合適的,繼續(xù)使用原來Pi_l引導當前迭代進化。
SMQPSO算法設計如圖4所示。
圖4 SMQPSO算法過程
4.1搜索算法的全局收斂性準則
在本文分析SMQPSO算法收斂性過程中,使用t表示迭代次數(shù),S表示解空間的一個子集,z表示解空間中的點。根據(jù)Solis和Wets提出隨機搜索算法的收斂性準則[15],隨機算法應滿足假設1:
假設1f(D(z,τ))≤f(z),并且如果τ∈S,則其中,D表示具體算法,τ表示樣本空間的向量。
任何算法的全局收斂意味著序列{f(zt)}∞t=1應收斂于函數(shù)f在S中的下確界。為避免函數(shù)的病態(tài)(最小值點在間斷點)以至于搜索不到全局最優(yōu)解,將搜索目標變?yōu)樗阉飨麓_界ψ,則可以無需遍歷S中的每個點就可以接近下界。定義算法可接受區(qū)域為:
其中,ε>0。如果算法找到Rε中的點,則稱算法找到了誤差為ε的可接受點。因此,對于最小化問題,全局收斂算法應該滿足假設2。
假設2對于S的任意Borel子集A,若其測度v[A]>0,則有
其中,μk[A]是由測度μk所得到A的概率。這就是說對于位置測度為v的任意一個A的子集,如果采用隨機取樣的方法,那么它重復錯過集合A的概率必定為零。由于Rε?S,所有在可接受區(qū)域取得點的概率肯定是非零值?;谝陨戏治?,可以得到下面定理:
定理1假設目標函數(shù)f為可測函數(shù),S為可測解空間子集,滿足假設1,設{zk}∞k=0為算法生成的解序列,可得
其中,P[zk∈Rε]是第t步算法生成的解zk∈Rε的概率。
4.2SMQPSO算法全局收斂性證明
本文在SMQPSO算法收斂性證明過程中將它置于全局隨機搜索算法的框架中研究,以定理1的結論進行證明,則有如下引理。
引理1 SMQPSO算法滿足假設1。
引理2 SMQPSO算法滿足假設2。
證明在SMQPSO算法闡述中,在任意一個迭代步t,在i個粒子第j維的概率密度函數(shù)為:
定義μi,t為對應于Q(Xi,t)的概率測度,對于S的任意Borel子集A,當滿足v[A]>0,則可得到
和
其中,Mi,t是μi,t在樣本空間的支撐,并且A?Mi,t。因此可以得到
粒子的支撐聯(lián)合為:
其中,Mt是分布μt的支撐,由μt生成的概率A可以由下式計算得到
通過式(27),可以得到:
因此可得:
表明SMQPSO算法滿足假設2。證明完畢。
5.1粒子領導力參數(shù)分析
在SMQPSO算法中,粒子領導力參數(shù)(δ1,δ2,δ3,δ4,ζ1,ζ2)的取值對算法有重要的影響,本文通過不同的參數(shù)取值組合對參數(shù)進行研究。測試函數(shù)使用CEC2005 benchmark測試函數(shù)[14],其中f1到f5為單峰函數(shù),f6到f12為多峰函數(shù)。算法中,其他的參數(shù)設置為:收縮擴張因子β從1.0線性下降到0.5,問題維數(shù)為30,算法對應的最大迭代次數(shù)為20 000,粒子數(shù)為40;每個問題的求解都應用算法隨機地獨立運行50次,pro取值為1/D。表1給出了領導力參數(shù)不同取值條件下時,目標測試函數(shù)值的平均值和標準方差。在領導力參數(shù)取值中,對于Pleader粒子領導力的不同情況,δ1,δ2,δ3分別取值(2,1,0);對于δ4研究了兩種取值情況,分別是-1和-2,當Pleader不能領導群體尋優(yōu)時,δ4取值-2能夠快速地消耗Pleader前期累積的領導力,達到快速更新Pleader的目的,當領導力耗盡時,粒子的生命周期就結束了。對于個體粒子領導力ζ1,ζ2研究了(2,-1)、(2,-∞)和(3,-1)的情況,其中-∞表示當粒子不能領導個體尋優(yōu)時,直接進入粒子更新步驟,不再考慮前期累積的領導力。
由表1中的仿真數(shù)據(jù)可以得出,不同的領導力參數(shù)組合對算法性能是有影響的。對于單峰函數(shù)(f1~f5),優(yōu)化問題相對簡單,粒子陷入局部最優(yōu)的可能性較小。當領導粒子陷入局部最優(yōu)時,快速地減小它的領導力,使得新的粒子盡快替代它,能夠領導群體繼續(xù)尋優(yōu)。對于多峰函數(shù)(f6~f12)則正好相反,優(yōu)化問題相對復雜,在優(yōu)化過程中粒子容易陷入局部最優(yōu),而領導粒子積累了相對較多的領導力,采用較小的領導力下降速度值將有利于保持群體的尋優(yōu)結構,并最終找到最優(yōu)值。
表1 不同領導力參數(shù)條件下SMQPSO算法的測試函數(shù)平均值及方差
5.2仿真結果與討論
表2和表3給出了文中提出的SMQPSO算法和其他典型改進QPSO算法的仿真結果比較。這些比較的算法主要有固定收縮擴張因子的QPSO(BQPSO)算法、標準QPSO(QPSO)算法、局部搜索策略的QPSO(LCQPSO)算法、自學習QPSO(SQPSO)算法、強化學習的QPSO(QLQPSO)算法、最優(yōu)吸引點QPSO(GQPSO)、混合吸引點QPSO(HQPSO)算法、線性權重系數(shù)QPSO(WQPSO)算法和非線性權重QPSO(UQPSO、DQPSO)算法[5-7,15-16]。在所有算法測試中,問題維數(shù)為30,算法對應的最大迭代次數(shù)為20 000,粒子數(shù)為40,每個問題的求解都應用算法隨機地獨立運行50輪,其他參數(shù)設置與原參考文獻相同。
表2和表3中的結果比較顯示,在測試函數(shù)Schwefel’s Problem 2.6 with Global Optimum on the Bounds函數(shù)(f5)、Shifted Rotated Griewank’s Function without Bounds函數(shù)(f7)、Shifted Rotated Ackley’s函數(shù)(f8)、Shifted Rastrigin’s函數(shù)(f9)、Shifted Schwefel’s Problem 1.2函數(shù)(f12)取得了較好的值,在f5、f8、f9測試函數(shù)中取得了第一,是所有測試算法中最多的,在其他的測試函數(shù)中也取得了和其他算法相近的仿真結果。BQPSO算法、QPSO算法、LCQPSO算法、GQPSO算法、HQPSO算法、UQPSO算法、WQPSO算法則分別在Shifted Rotated Weierstrass函數(shù)(f11)、Shifted Rotated High Conditioned Elliptic函數(shù)(f3)、f7、Shifted Sphere函數(shù)(f1)、Shifted Rotated Rastrigin’s函數(shù)(f10)、Shifted Rosenbrock函數(shù)(f6)、f12中分別取得了一次最優(yōu)值,QLQPSO算法在Shifted Schwefel’s Problem 1.2函數(shù)(f2)、Shifted Schwefel’s Problem 1.2 with Noise in Fitness函數(shù)(f4)中取得了二次最優(yōu)值。圖5給出了QPSO算法、PSO算法、SMQPSO算法、QLQPSO算法和SQPSO算法的20 000次迭代的進化曲線比較。從收斂曲線可以看出,SMQPSO算法和PSO算法相比較,在12個測試函數(shù)中都能夠取得較快的收斂速度;和QPSO算法相比較,在測試函數(shù)中能夠有相接近的收斂速度,在f3、f9、f10和f11中的收斂速度要優(yōu)于QPSO算法;和其他QPSO的改進算法比較,雖然不能在所有的測試函數(shù)中取得明顯優(yōu)勢,但是收斂性能穩(wěn)定,綜合性能好。以上說明,提出的具有自我更新機制的QPSO算法,能夠提升跳出局部搜索的能力,提升算法整體性能。
表2 SMQPSO與BQPSO、QPSO、LCQPSO、SQPSO和QLQPSO運行50輪后的平均最優(yōu)值及方差
表3 SMQPSO與GQPSO、HPSO、UQPSO、DQPSO和WQPSO運行50輪后的平均最優(yōu)值及方差
圖5 不同算法優(yōu)化測試函數(shù)時的目標函數(shù)值收斂曲線比較
為了更好地比較測試算法整體性能,本文使用了ANOVA測試方法[17]研究各個改進算法的整體性能,其中ANOVA測試方法中顯著性水平數(shù)值設置為0.05。所有算法根據(jù)測試結果排序決定對測試問題是否是可靠有效。表4給出了各個算法對于12個測試函數(shù)的排序結果,表5給出了專門針對多峰問題(f6~f12)7個測試函數(shù)的排序結果。從表4中的排序值看出,SQPSO算法的排序值為49,對于12個測試函數(shù)整體性能最優(yōu),UQPSO算法和SMQPSO算分別以排序中56、57緊隨其后。而對于較難尋優(yōu)的7個多峰問題,本文提出的SMQPSO算法排序值為25,在所有算法中性能最優(yōu)。這些數(shù)值比較顯示,帶有自我更新機制的QPSO算法在測試函數(shù)優(yōu)化中增加了群體多樣性,表現(xiàn)出較強的尋優(yōu)特性,尤其是在多峰問題中能夠迅速的搜索到最優(yōu)值。
表4 不同算法優(yōu)化12個測試函數(shù)時的性能比較表
表5 不同算法優(yōu)化7個多峰函數(shù)時的性能比較表
分析了QPSO算法的進化方程,研究了自然界中生命體進化時,隨著時間的推移存在老化并死亡的現(xiàn)象。在QPSO算法進化過程中,引入了自我更新機制,提出了領導者粒子和挑戰(zhàn)者粒子概念,通過當前群體粒子表現(xiàn)來計算領導者粒子的領導力,分析了不同狀態(tài)下的領導力計算方法,當領導力耗盡時,通過挑戰(zhàn)機制判斷領導者粒子是否需要更新,并給出了整個算法的執(zhí)行過程。具有自我更新機制的QPSO算法充分保持了群體進化過程中的多樣性,在使用CEC2005測試函數(shù)和其他幾種不同改進算法的仿真比較中,結果顯示具有自我更新機制的QPSO算法在大部分測試函數(shù)上能夠取得更優(yōu)的結果,尤其在多峰測試上更加明顯,其他函數(shù)也能夠取得和其他方法相近的結果,因此SMQPSO算法能夠提高QPSO算法的整體性能。
[1]Kennedy J,Eberhart R.Particle swarm optimization[C]// Proceedings of IEEE International Conference on Neural Network.Perth,WA:IEEE,1995:1942-1948.
[2]Van Den Bergh F.An analysis of particle swarm optimizers[D]. Pretoria:University of Pretoria,2001.
[3]Chen W,Zhang J,Lin Y,et al.Particle swarm optimization with an aging leader and challengers[J].IEEE Transactions on Evolutionary Computation,2013,17(2):241-258.
[4]Campos M,Krohling R,Enriquez I.Bare bone particle swarm optimization with scale matrix adaption[J].IEEE Transactions on Cybernetics,2014,44(9):1567-1578.
[5]Sun J,Xu W,F(xiàn)eng B.A global search strategy of quantumbehaved particle swarm optimization[C]//Cybernetics and Intelligent Systems,Proceedings of the 2004 IEEE Conference.Sigorpore:IEEE,2004:111-116.
[6]Sun J,Xu W,Plade V,et al.Convergence analysis and improvements of quantum-behaved particle swarm optimization[J].Information Sciences,2012,193:81-103.[7]Xi M,Sun J,Xu W.An improved quantum-behaved particle swarm optimization algorithm with weighted mean best position[J].Applied Mathematics and Computation,2008,205(2):751-759.
[8]Sun J,F(xiàn)ang W,Xu W,et al.Quantum-behaved particle swarm optimization analysis of individual particle behavior and parameterselection[J].EvolutionaryComputation,2012,20(3).
[9]Fang W,Sun J,Xu W,et al.Analysis of mutation operators on quantum-behaved particle swarm optimization algorithm[J]. Mathematics and Natural Computation,2009,5(2):487-496.
[10]Omkar S,Khandelwal R,Ananth T,et al.Quantum behaved Particle Swarm Optimization(QPSO)for multi-objective designoptimizationofcompositestructures[J].Expert Systems with Applications,2009,36(8):11312-11322.
[11]Indiral K,Kanmani S,Jagan R,et al.An evolutionary quantum behaved particle swarm optimization for mining associationrules[J].InternationalJournalofScientific &Engineering Research,2014,5(5):379-388.
[12]Farzi S,Shavazi A,Pandari A.Using quantum-behaved particle swarm optimization for portfolio selection problem[J]. The International Arab Journal of Information Technology,2013,10(2):111-119.
[13]Clerc M,Kennedy J.The particle swarm:explosion,stability and convergence in a multi-dimensional complex space[J]. IEEE Transactions on Evolutionary Computation,2002,6:58-73.
[14]Suganthan P,Hansen N,Liang J,et al.Problem definitions and evaluation criteria for the CEC 2005 special session onreal-parameteroptimization[R].Singapore:Nanyang Technological University,2005.
[15]Solis F,Wets R.Minimization by random search techniques[J].Mathematics of Operations Research,1981,6(1):19-30.
[16]Fang W.Swarm intelligence and its application in the optimal design of digital filters[D].Wuxi:Jiangnan University,2008.
[17]Day R,Quinn G.Comparisons of treatments after an analysis of variance in ecology[J].Ecological Monographs,1989,59:433-463.
[18]Sheng X,Xi M,Sun J,et al.Quantum-behaved particle swarmoptimizationwithnoveladaptivestrategies[J]. Journal of Algorithms&Computational Technology,2015,9(2):143-161.
Quantum-behaved Particle Swarm Optimization algorithm with self-renewal mechanism.
XI Maolong1,2,WU Xiaojun2,F(xiàn)ANG Wei2,SUN Jun2
1.School of Control Technology,Wuxi Institute of Technology,Wuxi,Jiangsu 214121,China
2.School of Internet of Things,Jiangnan University,Wuxi,Jiangsu 214122,China
Life body has limited life in nature;it will be aging and die with time.The aging mechanism is very important to keep swarm diversity during evolutionary process.For the phenomenon that Quantum-behaved Particle Swarm Optimization(QPSO)is often premature convergence,self-renewal mechanism is proposed into QPSO,and a leading particle and challengers are introduced.When the leading power of leading particle is exhausted,one challenger will select to be the new leading particle and continues keeping the diversity of swarm with a certain renewal mechanism.Furthermore,global convergence of the proposed algorithm is proved.Finally,the comparison and analysis of results with the proposed method and classical improved QPSO algorithm based on twelve CEC2005 benchmark function is given,the simulation results show stronger global searching ability of the modified algorithm.Especially in the seven multi-model test functions,the comprehensive performance is optimal.
PSO algorithm;quantum behaved;self-renewal mechanism;diversity;global convergence;aging
A
TP301.6
10.3778/j.issn.1002-8331.1509-0064
國家自然科學基金(No.61170119);江蘇省“青藍工程”學術帶頭人培養(yǎng)對象資助。
奚茂龍(1977—),男,副教授,博士后,主要研究方向為智能優(yōu)化算法及應用;吳小?。?967—),男,教授,博士生導師,主要研究方向為模式識別與人工智能;方偉(1981—),男,副教授,博士,主要研究方向為群體智能與進化計算;孫?。?971—),男,教授,博士,主要研究方向為人工智能、算法設計。E-mail:wx_xml@hotmail.com
2015-09-04
2015-10-13
1002-8331(2015)22-0001-09