黃君策,石 林,顧玉宛,李 寧,莊麗華,徐守坤
(常州大學(xué) 計(jì)算機(jī)與人工智能學(xué)院 阿里云大數(shù)據(jù)學(xué)院 軟件學(xué)院,江蘇 常州 213164)
對數(shù)據(jù)進(jìn)行壓縮主要有兩種方法,數(shù)據(jù)降維是映射方法,通過主成分分析(PCA)[4]、獨(dú)立成分分析(ICA)[5]等數(shù)學(xué)方法,將高維度數(shù)據(jù)映射到低維度數(shù)據(jù)。特征選擇是挑選方法,在原數(shù)據(jù)集中挑選若干特征,組成一個(gè)滿足某種評價(jià)準(zhǔn)則的最優(yōu)特征子集[1-3]。
近年來,在特征選擇領(lǐng)域,通常使用元啟發(fā)式算法對搜索空間進(jìn)行隨機(jī)搜索。Zhu等將遺傳算法和局部搜索算法結(jié)合提出了FS-NEIR算法[6],該算法提出了一種新的特征評價(jià)準(zhǔn)則,稱為領(lǐng)域有效信息比率(NEIR),根據(jù)評估準(zhǔn)則使用貪婪選擇算法進(jìn)行特征子集的選擇;Xue等基于粒子群算法提出了PSO(4-2)算法[7],在初始化策略中加入了前向后向搜索的思想,在更新機(jī)制上,將分類準(zhǔn)確率和維度約簡兩方面考慮添加其中;Tabakhi等在對蟻群優(yōu)化算法研究的基礎(chǔ)上,將其應(yīng)用到特征選擇中,提出了UFSACO算法[8],該算法采用濾波器方法,搜索空間被表示為一個(gè)完全連接的無向加權(quán)圖。
Ghaemi等受自然過程影響,提出了森林優(yōu)化特征選擇算法(feature selection using forest optimization algorithm,F(xiàn)SFOA)。在進(jìn)行分類時(shí),F(xiàn)SFOA不需要過多的計(jì)算資源,同樣能獲得較好的分類效果;同時(shí),F(xiàn)SFOA算法能保證良好的泛化性能[9]。FSFOA算法仍有一些不足:其一,F(xiàn)SFOA算法生成初始解空間時(shí),隨機(jī)地從n維特征中選擇t維特征構(gòu)成初始特征子集;其二,全局播種階段,F(xiàn)SFOA算法使用固定值設(shè)置參數(shù)GSC(global seeding change),不能充分地發(fā)揮FSFOA算法的全局搜索能力;其三,在本地播種階段,F(xiàn)SFOA算法根據(jù)LSC(local seeding change)參數(shù)進(jìn)行本地播種,未考慮樹的優(yōu)劣情況。
針對原算法的不足,本文中提出了一種自適應(yīng)的森林優(yōu)化特征選擇算法(adaptation feature selection using forest optimization algorithm,AFSFOA)。①將特征權(quán)重評估算法和初始化策略相結(jié)合,提升了初始森林的質(zhì)量;②參考反饋機(jī)制,提出了自適應(yīng)的GSC參數(shù)選擇策略;③本地播種過程中,引入貪心算法,尋找更好的特征子集。在10個(gè)UCI中的數(shù)據(jù)集中,將AFSFOA與FSFOA以及近年來提出的其它較為高效的特征選擇算法進(jìn)行比較,實(shí)驗(yàn)結(jié)果表明,AFSFOA算法顯著提高了分類器的分類性能。在維度約簡方面,同樣表現(xiàn)較好。
受大自然森林演變過程的啟發(fā),Ghaemi于2014年提出森林優(yōu)化算法(forest optimization algorithm,F(xiàn)OA),該算法能夠解決連續(xù)搜索空間問題。2016年,Ghaemi等將森林優(yōu)化算法推廣到離散搜索空間,應(yīng)用在特征選擇問題中,取得了不錯的效果。FSFOA算法包含初始化森林、本地播種、種群限制、全局播種以及更新最優(yōu)樹等5個(gè)階段。其具體流程如圖1所示。
圖1 FSFOA算法流程
初始化森林(initialize trees)階段,算法生成初始森林(初始解空間)。樹由特征選擇集和樹齡(Age)構(gòu)成;特征選擇集是一個(gè)n維的{0,1}向量,“0”表示在當(dāng)前特征子集中,這個(gè)特征未被選擇,“1”表示這個(gè)特征被選擇,初始化階段,這些值隨機(jī)產(chǎn)生;樹齡是樹在解空間內(nèi)存在的時(shí)間,在初始化階段,所有的樹的樹齡都被設(shè)置為0。
本地播種(local seeding)階段,算法對森林中年齡為“0”樹進(jìn)行局部搜索。將Age為0的樹復(fù)制LSC(local seeding change)棵,然后隨機(jī)改變這些樹中的某一個(gè)特征選擇與否,將樹齡設(shè)置為0,放入森林中。
種群限制(population limiting)階段,算法控制森林中樹木數(shù)量。先淘汰樹齡大于年齡上限(life time)的樹木;然后依據(jù)樹適應(yīng)度值(fitness)淘汰超出規(guī)模上限的樹。淘汰的樹放入候選森林。
全局播種(global seeding)階段,算法進(jìn)行全局搜索。根據(jù)轉(zhuǎn)移率(transfer Rate)從候選森林中選擇部分樹,然后根據(jù)GSC(global seeding change)值,改變這些樹GSC位特征選擇與否,將樹齡設(shè)置為0后加入到森林中。
更新最優(yōu)樹(update the best tree)階段,算法更新當(dāng)前最優(yōu)樹。算法依據(jù)樹的適應(yīng)度值以及維度縮減選擇最優(yōu)樹,將當(dāng)前最優(yōu)樹樹齡置為0后重新放入森林。
FSFOA算法在初始化森林時(shí),使用隨機(jī)方式生成初始解空間。隨機(jī)生成的森林中部分樹品質(zhì)較低,對后續(xù)的搜索造成不利影響。本文考慮在初始化階段對特征進(jìn)行一些預(yù)處理操作,生成高質(zhì)量的初始解。
特征的最佳子集高度包含與標(biāo)簽具有強(qiáng)相關(guān)性的特征,在初始化時(shí),選中強(qiáng)相關(guān)特征能夠有效提升初始解空間的質(zhì)量。與標(biāo)簽相關(guān)性較弱的特征在分類時(shí),對分類的貢獻(xiàn)較小,引入最終最佳特征子集的可能性較小。參考最近的相關(guān)研究[10],本文提出了一種結(jié)合了特征相關(guān)性的初始化策略。初始化階段,首先對所有特征的特征相關(guān)性ω進(jìn)行評價(jià),依據(jù)一定的選擇策略選擇特征集中強(qiáng)相關(guān)的特征作為優(yōu)質(zhì)特征。在生成初始森林時(shí),隨機(jī)生成一些樹,然后將這些樹的優(yōu)質(zhì)特征全部選中。從而構(gòu)建出對于后續(xù)算法搜索過程友好的優(yōu)質(zhì)樹。
本文使用了特征權(quán)重評估算法[10]對特征相關(guān)性ω進(jìn)行計(jì)算,特征權(quán)重評估算法在計(jì)算特征權(quán)重時(shí),不僅考慮特征之間相關(guān)性,也會考慮特征和類別之間的相關(guān)性。算法從數(shù)據(jù)集D中隨機(jī)選擇一個(gè)樣本xi,搜索xi的同類最近鄰樣本xi(s)和異類最近鄰樣本xi(d)。然后調(diào)整特征對應(yīng)的同類、異類差異度值,并根據(jù)特征差異度相應(yīng)地調(diào)整特征權(quán)重。迭代后得到所有特征的相關(guān)性權(quán)重。
在樣本x1與x2上,兩者在特征維度fj上的差異度diff(x1,x2,j) 為
(1)
xi選擇r個(gè)同類最近鄰和異類最近鄰調(diào)整特征fj的權(quán)值
(2)
特征權(quán)重評估算法:
輸入:數(shù)據(jù)集D,子集維數(shù)n。
輸出:特征權(quán)重ω(1,…,n)。
(1) 初始化數(shù)據(jù)集D中特征權(quán)重ω(1,…,n)=0;
(2) for i = 1 tondo
(3) 隨機(jī)獲取一個(gè)實(shí)例xi;
(4) 搜索xi的同類最近鄰xi(s)和異類最近鄰xi(d);
(5) for j=1 tondo
(6) 根據(jù)權(quán)重調(diào)整式(2)調(diào)整權(quán)重ω(j)
(7) end for
(8) 更新特征權(quán)重ω(1,…,n)
(9) end for
對特征進(jìn)行挑選時(shí),特征的權(quán)重越大,表示該特征的分類能力越強(qiáng),反之,表示該特征分類能力越弱。對于優(yōu)質(zhì)特征的選擇,參考文獻(xiàn)[10],如果特征的相關(guān)性滿足
(3)
則將特征視為優(yōu)質(zhì)特征。其中α是接受不相關(guān)特征被誤認(rèn)為相關(guān)特征的概率,m為樣本的實(shí)例個(gè)數(shù)。
全局播種階段,算法修改GSC個(gè)特征的選擇與否,GSC參數(shù)控制了樹木形態(tài)的改變。固定的GSC參數(shù)限制了樹木形態(tài)的調(diào)整,無法達(dá)到全局搜索以跳出局部最優(yōu)的目的。本文改進(jìn)GSC參數(shù)的生成策略,充分利用算法的全局搜索機(jī)制,跳出局部最優(yōu),搜索最優(yōu)特征子集。
在候選森林中,樹的形態(tài)并不一致:部分樹生成時(shí)相對劣質(zhì),對于這些劣質(zhì)樹,其對應(yīng)的特征集合與最優(yōu)特征子集差別較大,與分類標(biāo)準(zhǔn)的要求并不相符,需要對這些樹的特征集合做出較多改變;部分樹自身特征集合相對優(yōu)秀,其對應(yīng)的特征集合趨近于最優(yōu)解,這些樹的特征集合需要的改變較少。
本文改變GSC參數(shù)值的生成方式,由固定參數(shù)值改為自適應(yīng)生成GSC參數(shù)值。由自動控制理論的啟發(fā),本文引入了反饋調(diào)節(jié)機(jī)制,根據(jù)樹的適應(yīng)度值(樹的質(zhì)量)“Fitness”確定GSC參數(shù)值。樹的適應(yīng)度值為當(dāng)前樹確定的特征子集分類準(zhǔn)確率。劣質(zhì)樹調(diào)整較多特征的選擇與否,設(shè)置較大的GSC值;優(yōu)質(zhì)樹調(diào)整較少特征,設(shè)置較小的GSC值。同時(shí)將全局播種策略與局部播種策略區(qū)分,設(shè)置了GSC參數(shù)的上下限。
自適應(yīng)全局播種策略中,GSC參數(shù)值是樹適應(yīng)度值的函數(shù)
numGSC=f(Fitness)
(4)
對樹質(zhì)量進(jìn)行評判時(shí),不僅需要考慮當(dāng)前樹的質(zhì)量,也要考慮理想樹的質(zhì)量,才能對樹質(zhì)量做出恰當(dāng)?shù)脑u判。本文對當(dāng)前樹質(zhì)量Fitnessnow和理想最優(yōu)樹質(zhì)量Fitnessbest進(jìn)行比較,確定當(dāng)前樹的質(zhì)量。在確定樹的質(zhì)量時(shí),如果Fitnessnow和Fitnessbest兩者差距較大,保守地對樹質(zhì)量做出評價(jià);差距較小時(shí),激進(jìn)地對樹做出評價(jià)。由于理想最優(yōu)樹的適應(yīng)度值難以確定,本文使用當(dāng)前最優(yōu)樹來近似替代理想最優(yōu)樹。樹質(zhì)量函數(shù)為
(5)
得到當(dāng)前樹的質(zhì)量后,需要將其映射到需要修改的特征個(gè)數(shù)。當(dāng)前樹的質(zhì)量與需要修改的特征個(gè)數(shù)之間是呈正比關(guān)系的。即
numchange∝Fitness
(6)
確定GSC參數(shù)值時(shí),從當(dāng)前數(shù)據(jù)集的特征個(gè)數(shù)n得到需要修改的特征個(gè)數(shù)。首先控制全局播種過程中特征改變個(gè)數(shù)的范圍,設(shè)定參數(shù)GSC的上界為0.5n;GSC值為1時(shí),全局播種的搜索范圍和本地播種一致,全局播種則退化為本地播種,為了將全局播種過程與本地播種相區(qū)別,設(shè)定GSC值的下界為2。則2≤numGSC≤0.5n。 由此,GSC參數(shù)值的確定公式如下
(7)
全局播種過程本質(zhì)是一種全局搜索策略,自適應(yīng)調(diào)整的GSC值,能充分利用全局播種輔助尋優(yōu)的特性,擴(kuò)大全局播種的搜索范圍,避免算法陷入局部最優(yōu)情形。更容易找到相對優(yōu)秀的搜索子空間,收斂到最優(yōu)解。
本地播種過程中,F(xiàn)SFOA算法對所有樹齡為“0”的樹進(jìn)行局部搜索,限制了算法尋優(yōu)性能。本文對本地播種過程做出改進(jìn),充分利用局部搜索效果,尋找最優(yōu)特征子集。
本地播種過程中,年齡為“0”的樹形態(tài)不一致。劣質(zhì)樹的特征和理想最優(yōu)樹的特征差異度較大,對其進(jìn)行局部搜索時(shí),改變個(gè)別特征,無法尋找到優(yōu)質(zhì)樹;優(yōu)質(zhì)樹的特征子集和理想最優(yōu)特征子集相差較小,對其進(jìn)行局部搜索時(shí),搜索的次數(shù)越多,尋找到更好特征子集的可能性越大。
本文對本地播種策略略作調(diào)整,對局部搜索樹增加了更多的限制,同時(shí)增加了局部搜索的搜索范圍。
本文在選擇局部搜索樹時(shí),首先選中森林中樹齡為“0”的樹,然后根據(jù)樹的質(zhì)量進(jìn)行進(jìn)一步選擇。受貪心策略的啟發(fā),在進(jìn)一步挑選時(shí),選擇優(yōu)質(zhì)樹進(jìn)行后續(xù)的局部搜索過程,減少劣質(zhì)樹的局部搜索,減少森林中的劣質(zhì)樹。僅選擇適應(yīng)度值最高的樹,森林中樹缺少多樣性,算法可能陷入局部最優(yōu)情形,選擇森林中一半的樹可以保證森林里樹的多樣性。判斷樹的質(zhì)量時(shí),將樹齡為“0”的樹根據(jù)其適應(yīng)度值從高到低排序,適應(yīng)度值排名前一半的樹標(biāo)記為優(yōu)質(zhì)樹,繼續(xù)后續(xù)的局部搜索過程;適應(yīng)度值排名后一半的樹則為劣質(zhì)樹,不進(jìn)行后續(xù)的局部搜索。在選擇樹時(shí),選擇原算法一半的樹進(jìn)行后續(xù)局部搜索過程。
對優(yōu)質(zhì)樹進(jìn)行局部搜索時(shí),擴(kuò)大其搜索范圍。FSFOA算法在局部搜索時(shí),其搜索范圍是由LSC參數(shù)值控制的。算法的LSC值與數(shù)據(jù)集特征個(gè)數(shù)n相關(guān),其值為
(8)
在選擇局部搜索樹時(shí),本文選擇原算法一半的樹進(jìn)行后續(xù)局部搜索過程;在搜索時(shí),本文將搜索范圍擴(kuò)大一半,將LSC值設(shè)為
(9)
在能夠搜索到更好的特征子集同時(shí),也保證了算法的運(yùn)行效率。
本地播種過程是一個(gè)局部搜索過程,是一個(gè)“優(yōu)中尋優(yōu)”的過程。調(diào)整后的本地播種過程,充分利用了局部搜索“優(yōu)中選優(yōu)”的特性,去除了對劣質(zhì)樹的局部尋優(yōu),增加了優(yōu)質(zhì)樹的尋優(yōu)范圍,更容易收斂到最優(yōu)特征子集。
本文實(shí)驗(yàn)平臺為一臺CPU為Intel i7-6800K、操作系統(tǒng)為Linux(Ubuntu 16.04)的計(jì)算機(jī)。實(shí)驗(yàn)使用語言為python3,此外還使用了著名的機(jī)器學(xué)習(xí)工具包scikit-learn。
本文在10個(gè)不同規(guī)模的UCI數(shù)據(jù)集上進(jìn)行了對比實(shí)驗(yàn)。根據(jù)文獻(xiàn)[9],按照數(shù)據(jù)集規(guī)模,選擇了特征數(shù)量在[0,19]之間的6個(gè)低維度數(shù)據(jù)集(Glass、Wine、Heart、Cleveland、Vehicle、Segmentation);特征數(shù)量在[20,49]之間的2個(gè)中維度數(shù)據(jù)集(Dermatology、Ionosphere);特征數(shù)量在[50,∞]之間的2個(gè)高維度數(shù)據(jù)集(Sonar、SRBCT)。選擇不同維度的數(shù)據(jù)集,能夠看出算法在不同情形下的表現(xiàn)。數(shù)據(jù)集的具體信息見表1。表中n為數(shù)據(jù)集總的特征個(gè)數(shù),m為數(shù)據(jù)集實(shí)例個(gè)數(shù),labels為數(shù)據(jù)集類別數(shù)目。
表1 數(shù)據(jù)集概述
本文在對實(shí)驗(yàn)結(jié)果進(jìn)行對比時(shí),使用了兩種評價(jià)指標(biāo)對算法進(jìn)行評價(jià)。
第一種評價(jià)指標(biāo)為算法的分類準(zhǔn)確率CA(classification accuracy),分類準(zhǔn)確率反映最優(yōu)特征子集在分類器上的表現(xiàn)。其具體定義如下
CA=CC/AC
(10)
其中,CC表示了能夠正確分類的實(shí)例數(shù),AC(all classifica-tion)則是參與分類的實(shí)例總數(shù)。
第二種評價(jià)指標(biāo)為算法的維度約簡率DR(dimensio-nality reduction),維度約簡率是對最優(yōu)特征子集特征個(gè)數(shù)的評價(jià)。其具體定義為
DR=1-(SF/AF)
(11)
其中,SF(selected features)是在特征集中被選擇的特征個(gè)數(shù),AF(all features)是數(shù)據(jù)集的特征總數(shù),即n。
實(shí)驗(yàn)過程中,AFSFOA算法的參數(shù)設(shè)置規(guī)則為:參數(shù)設(shè)置方法未改進(jìn),依據(jù)參考文獻(xiàn)[9]中的設(shè)置方法,設(shè)為與FSFOA算法相同的參數(shù)值,確保實(shí)驗(yàn)公平性;參數(shù)設(shè)置方法有調(diào)整,依據(jù)本文方法重新設(shè)定參數(shù)值。未做修改的參數(shù)設(shè)置中,固定參數(shù)的設(shè)置由表2給出。
表2 AFSFOA算法固定參數(shù)信息
本文在進(jìn)行對比實(shí)驗(yàn)時(shí),在比較AFSFOA算法與原算法FSFOA表現(xiàn)的基礎(chǔ)上,拓展了算法的比較范圍,選擇部分近年來表現(xiàn)出色的特征選擇算法進(jìn)行對比。
進(jìn)行比較的特征選擇算法包括過濾式特征選擇算法和嵌入式特征選擇算法。過濾式特征選擇算法有:FS-NEIR、SVM-FuzCoc[12]和NSM[13],這類算法使用具體評價(jià)準(zhǔn)則給每個(gè)特征打分,運(yùn)算效率較高。嵌入式特征選擇算法為UFSACO和PSO(4-2),這類算法構(gòu)建學(xué)習(xí)器,根據(jù)預(yù)測精度對特征子集進(jìn)行評價(jià),分類準(zhǔn)確率較高。
在進(jìn)行對比實(shí)驗(yàn)時(shí),主要使用了DT分類器和KNN分類器。為了保證實(shí)驗(yàn)的可靠性,部分實(shí)驗(yàn)使用了10折交叉驗(yàn)證。實(shí)驗(yàn)結(jié)果見表3。
表3 實(shí)驗(yàn)結(jié)果
表3(續(xù))
比較AFSFOA算法在不同分類器中的表現(xiàn),在Glass、Heart-statlog和Sonar這些數(shù)據(jù)集中,算法在KNN分類器中的表現(xiàn)優(yōu)于DT分類器。在特征選擇后,最優(yōu)特征子集已包含所有有效信息。KNN學(xué)習(xí)器在分類時(shí),使用了所有特征來進(jìn)行分類;而DT學(xué)習(xí)器分類時(shí),會丟棄少量信息。因此,KNN學(xué)習(xí)器的分類精度較DT分類器高。
將AFSFOA算法與FSFOA算法實(shí)驗(yàn)結(jié)果對比,可以看到改進(jìn)后的AFSFOA算法確有成效。在Sonar、Heart-statlog、Segmentation、SRBCT等數(shù)據(jù)集上,AFSFOA算法在不同的分類器中,分類準(zhǔn)確率以及維度縮減率都有提高;在Cleveland、Ionosphere等數(shù)據(jù)集上,AFSFOA算法在不同分類器上的分類準(zhǔn)確率有明顯提升;在Vehicle、Wine、Glass、Dermatology這些數(shù)據(jù)集中,AFSFOA算法在部分分類器中分類性能略低于FSFOA算法,但維度縮減率提升較多;其中Wine數(shù)據(jù)集在使用3-NN分類器時(shí),分類準(zhǔn)確率相差較大,準(zhǔn)確率低了約3%,但維度約簡提升了約20%。
比較在不同維度數(shù)據(jù)集下,AFSFOA算法的表現(xiàn)。在高維度的兩個(gè)數(shù)據(jù)集Sonar和SRBCT中,AFSFOA算法較FSFOA算法有著明顯的提升,分類準(zhǔn)確率均提高了5%~10%,同時(shí)維度約簡也有著明顯的提升;在中維度數(shù)據(jù)集Ionosphere、Dermatology中,除Dermatology在1 NN分類器中的表現(xiàn)略遜于FSFOA算法外,其它分類器上,本文算法仍有著較好的表現(xiàn);低維度數(shù)據(jù)集中,AFSFOA算法在絕大多數(shù)的分類器中表現(xiàn)良好,僅有部分分類器較FSFOA算法未有提升,但在這些分類器中,維度約簡有著明顯的提高。對不同維度的數(shù)據(jù)集進(jìn)行比較,可以看出AFSFOA算法在中高維度的數(shù)據(jù)集中表現(xiàn)優(yōu)異,而在低維度數(shù)據(jù)集中,表現(xiàn)同樣具有競爭力。對于不同維度的數(shù)據(jù)集,AFSFOA算法都能得到較好的結(jié)果,具有良好的泛化能力。
與其它算法進(jìn)行對比時(shí),AFSFOA算法在分類準(zhǔn)確率上仍有很強(qiáng)的競爭力。使用相同的學(xué)習(xí)器對數(shù)據(jù)集訓(xùn)練,僅在Vehicle數(shù)據(jù)集中,使用5-NN分類器時(shí),表現(xiàn)不如PSO(4-2)算法,在分類準(zhǔn)確率上,AFSFOA算法的準(zhǔn)確率比PSO(4-2)算法低約10%;在其它數(shù)據(jù)集中,AFSFOA算法仍占有優(yōu)勢。
在維度約簡能力上,和FSFOA算法相比,AFSFOA算法的維度約簡能力有著明顯的提升,但和其它算法相比,AFSFOA算法表現(xiàn)一般。但在兩個(gè)高維數(shù)據(jù)集Sonar和SRBCT中,與同類算法對比,AFSFOA算法的維度約簡能力均能達(dá)到最高的水準(zhǔn)。在Sonar和Segmentation這兩個(gè)數(shù)據(jù)集中,和FSFOA算法以及其它算法對比,AFSFOA算法在保持分類準(zhǔn)確率的同時(shí),有著優(yōu)秀的維度約簡能力。在Glass和Cleveland這兩個(gè)數(shù)據(jù)集中,本文算法的維度約簡率不如FSFOA算法,且差距較大,且在Glass數(shù)據(jù)集中,本文算法在分類準(zhǔn)確率上上同樣低于FSFOA算法。和其它算法的維度約簡能力相比,AFSFOA算法仍然有著不小的進(jìn)步空間;在Vehicle和Ionosphere這兩個(gè)數(shù)據(jù)集中,AFSFOA算法的維度約簡與其它算法相比均有較大差距。
通過對森林優(yōu)化特征選擇算法(FSFOA)的研究與分析,本文針對其不足之處做了3點(diǎn)優(yōu)化。在FSFOA算法的初始化階段,本文加入了特征權(quán)重評估算法,優(yōu)化搜索起始點(diǎn),便于后面算法進(jìn)行高效搜索;在全局播種階段,本文加入了參數(shù)自適應(yīng)生成策略,通過對樹“Fitness”值的分析,自動生成全局搜索參數(shù)(GSC);在算法的局部播種階段,加入了貪婪策略,增加對年齡為“0”的優(yōu)質(zhì)樹的局部搜索。將AFSFOA算法在10個(gè)UCI數(shù)據(jù)集中進(jìn)行測試,并與其它特征選擇算法進(jìn)行對比,實(shí)驗(yàn)結(jié)果表明,AFSFOA算法顯著地提高了分類準(zhǔn)確率;同時(shí)在部分?jǐn)?shù)據(jù)集中,能夠生成維度更少的特征子集。