• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      有限理性條件下決策品質(zhì)的提升策略研究

      2016-11-28 02:07:46魏靜
      統(tǒng)計(jì)與決策 2016年20期
      關(guān)鍵詞:效用函數(shù)決策者排序

      魏靜

      (天津科技大學(xué)應(yīng)用文理學(xué)院,天津300457)

      有限理性條件下決策品質(zhì)的提升策略研究

      魏靜

      (天津科技大學(xué)應(yīng)用文理學(xué)院,天津300457)

      文章針對(duì)有限理性決策問題,以一套仿真數(shù)據(jù)實(shí)驗(yàn)流程測(cè)試三種決策方法的有效性,給予偏好效用函數(shù)不同的參數(shù)設(shè)定模擬有限理性決策者排序的差異。結(jié)果顯示:PLP法與AHP法通過互動(dòng)的方式能較v IKOR法的排序更為準(zhǔn)確地提供符合有限理性決策者偏好的方案?;?dòng)方法中的PLP法又較AHP法更好,原因在于其互動(dòng)次數(shù)遠(yuǎn)較AHP法要少。v IKOR法因難以提供符合有限理性決策者的理想排序,不適合排序方案。

      有限理性決策、PLP法、AHP法、v IKOR法

      0 引言

      有限理性決策者在進(jìn)行多準(zhǔn)則決策(MCDM)時(shí),可能會(huì)受到各種不同的效應(yīng)影響。再加上目前帕雷多可視化技術(shù)所受到的限制,MCDM有限理性決策者無法快速且有效地表達(dá)偏好。因此有限理性決策者往往需要與分析者或使用決策軟件進(jìn)行多次互動(dòng),通過不斷的互動(dòng)以找出有限理性決策者的真正偏好。但高級(jí)管理者受時(shí)間與成本的限制,需要在資源有限的情況下進(jìn)行決策,多數(shù)決策屬于有限理性決策。決策者在進(jìn)行決策時(shí),多半不喜歡重復(fù)互動(dòng)式的啟發(fā)偏好決策。多次互動(dòng)行為或許可以用來確保周延性、完整的誘導(dǎo)決策者表達(dá)其偏好,但也可能引起有限理性決策者的負(fù)面情緒,這可能會(huì)使有限理性決策者無法專注于當(dāng)下的問題,影響偏好的呈現(xiàn)。且互動(dòng)式方法是否真的較其他MCDM方法更符合有限理性決策者偏好,仍有待商榷。再加上有限理性決策者在過量的信息與有限時(shí)間的壓力下進(jìn)行決策,會(huì)產(chǎn)生認(rèn)知偏誤。因此目前發(fā)展處多種準(zhǔn)則方法,希望能減低管理者的決策時(shí)間并增加決策的品質(zhì),但又無法確定這些MCDM方法同互動(dòng)方法的結(jié)果是否一致,其信度及效度難以驗(yàn)證。評(píng)選MCDM時(shí)面對(duì)眾多方案,該使用哪種方法較為可信且有效,目前尚無定論。因此本文通過不同的樣本組合進(jìn)行重復(fù)試驗(yàn),比較PLP法、VIKOR法及AHP法間的決策差異。

      1 多準(zhǔn)則決策實(shí)驗(yàn)方法設(shè)計(jì)

      本文以三種MCDM方法:PLP法、VIKOR法及AHP法進(jìn)行模擬實(shí)驗(yàn),并搭配三種有限理性決策者偏好效用函數(shù),計(jì)算MCDM方法評(píng)的最佳方案,作為有限理性條件下的決策評(píng)估的依據(jù)。本文以R X64 3.1.0為主要工具。MCDM方法中的PLP法、VIKOR法及AHP法分別適用于R X64 3.1.0中的pcr套件、ahp程序及MCDM套件中的vik程序,采用上述套件進(jìn)行運(yùn)算。

      1.1 VIKOR法

      VIKOR法步驟如下:

      ②計(jì)算Si和Ri

      ③計(jì)算Qi

      v為決策機(jī)制系數(shù)在VIKOR中將v設(shè)定為0.5,以同時(shí)追求群體效用最大化和個(gè)別遺憾最小化。

      ④根據(jù)Qi、Si和Ri的大小進(jìn)行排序

      ⑤若同時(shí)符合下列兩個(gè)條件,則Qi值最小的方案(A(1))為最佳解。

      條件一:可接受的優(yōu)勢(shì)

      A(2)為Qi第二小的方案,A(1)與A(2)間的差大于門檻值,表示A(1)顯著地優(yōu)于A(2)。

      條件二:可接受的穩(wěn)定性,A(1)的Si或(和)Ri必須優(yōu)于其他方案。

      ⑥若無法同時(shí)達(dá)成兩個(gè)條件,則形成一組可行方案,依下述判斷法則:

      條件二未達(dá)成時(shí),A(1)與A(2)都為最佳方案。

      條件一未達(dá)成時(shí),以式(3)為判斷標(biāo)準(zhǔn)檢驗(yàn)所有方案,通過者都為最佳方案。

      VIKOR在參數(shù)設(shè)定部分,將決策機(jī)制系數(shù)設(shè)定為0.5,以同時(shí)追求群體效用最大化和個(gè)別遺憾最小化。而由于在本文的實(shí)驗(yàn)中,有限理性決策者的偏好是固定的,即權(quán)重固定,因此假定偏好一致且已知。故本實(shí)驗(yàn)將原本步驟5與步驟6的優(yōu)勢(shì)與穩(wěn)定條件省略,改以直接使用Qi值得大小進(jìn)行排序,Qi值越小越好,最小者為最佳解。

      1.2 PLP法

      PLP方法的步驟如下:

      ①建立集合X與集合Q,集合X包含潛在最佳解,集合Q最初為空集合,用來收集所有被排除方案y。

      Q={y|決策者偏好Xr勝于y}

      ②選擇或確定一個(gè)參考點(diǎn),最初參考點(diǎn)的選擇為所有方案的線性最大值者。將現(xiàn)在參考方案從集合X中移除。

      ③每次迭代開始前,必須先對(duì)集合X內(nèi)的所有方案解下列線性規(guī)劃問題,找到使各方案擁有與參考方案最大差異值得權(quán)重組合,且該組權(quán)重組合使集合Q內(nèi)所有方案的線性規(guī)劃解都為非正值。

      ④所有集合X內(nèi)線性規(guī)劃解為負(fù)值將被從集合內(nèi)移除,若集合X為空集,則參考方案為最佳解,否則參考方案Xr需與鄰近解進(jìn)行兩兩比較。鄰近解的選擇為線性規(guī)劃值最大者。若決策者較偏好鄰近解超過參考方案,則使其為新的參考方案,并更新集合X與集合Q。

      ⑤重復(fù)步驟1到步驟4,直至集合X為空集合。

      PLP法中所需兩兩比較的部分,由相對(duì)應(yīng)的決策者偏好效用函數(shù)取代。PLP方法的虛擬程序碼如下:

      為求得PLP方法對(duì)方案的所有排序,本文在逐次進(jìn)行實(shí)驗(yàn)時(shí),將最佳方案選出后從備選方案集合中移除,并對(duì)剩余的方案再次進(jìn)行求解過程,直至備選集合為空集合為止。也就是說在首次PLP方法中選出并排除的方案為最佳,第二次選出方案次佳,并以此類推。

      1.3 AHP法

      AHP方法的步驟如下:

      ①建立評(píng)估屬性和各屬性下不同方案的成對(duì)比較矩陣

      由于本研究為模擬實(shí)驗(yàn),因此省略將決策問題的評(píng)估結(jié)構(gòu)化與建立層級(jí)結(jié)構(gòu)的過程,直接以生成的數(shù)據(jù)建立成對(duì)比較矩陣。a12為方案1和方案2的比較,本文以相對(duì)應(yīng)的有限理性決策者偏好效用函數(shù)值帶入計(jì)算,求得成對(duì)比較矩陣。因此需要進(jìn)行的成對(duì)比較。

      a12為方案1與方案2的比較,本文以相對(duì)應(yīng)的有限理性決策者偏好效用函數(shù)值帶入計(jì)算,求得成對(duì)比較矩陣。當(dāng)被評(píng)估的指標(biāo)有m個(gè)時(shí),需要進(jìn)行次的成對(duì)比較。就研究而言,方案數(shù)為10,因此每次的AHP方法都需要45次的成對(duì)比較。

      ②計(jì)算各屬性的相對(duì)權(quán)重和各方案的相對(duì)評(píng)估值

      本文采用行向量平均值標(biāo)準(zhǔn)化法求取向量值:

      ③根據(jù)特征值大小進(jìn)行排序

      由特征值大小進(jìn)行排序,特征值最大者為最佳方案,依次排序。

      在實(shí)驗(yàn)方法與效用函數(shù)間,差異最小者為PLP法,次小者為AHP法,最大者為VIKOR法。在三種方法中,PLP法與AHP法都為互動(dòng)式方法,導(dǎo)入有限理性決策者偏好效用函數(shù),因此較能準(zhǔn)確掌握有限理性決策者的偏好,使其排序與最優(yōu)決策較為相符。

      2 有限理性決策者偏好效用函數(shù)設(shè)計(jì)

      在本文中,PLP方法需要有限理性決策者的偏好作為兩兩比較的選擇依據(jù)。以及本文為目的為找出在不同有限理性決策者偏好效用函數(shù)下,MCDM方法是否都能準(zhǔn)確找到有限理性決策者所希望的答案,因此為能模擬有限理性決策者的偏好,Chebycheff效用函數(shù)(CHEBYCHEFF)表示非補(bǔ)償性的有限理性決策者行為,即由加權(quán)后表現(xiàn)最差的屬性決定該方案的優(yōu)劣。觀點(diǎn)理論的效用函數(shù)(PROSPECT)認(rèn)為,當(dāng)有限理性決策者為風(fēng)險(xiǎn)規(guī)避者時(shí),會(huì)對(duì)已擁有的事物持較高的評(píng)價(jià),因此往往不愿將其出售或舍棄。反之,風(fēng)險(xiǎn)追求者則較愿意追求更好的事物。

      表1列出實(shí)驗(yàn)方法在兩個(gè)有限理性決策者偏好效用函數(shù)下不同情境的表現(xiàn),四個(gè)效用函數(shù)分別為CHEBUYCHEFF和PROSPECT,在PROSPECT下設(shè)立不同的P值借以表示不同的風(fēng)險(xiǎn)偏好。P值為1表示風(fēng)險(xiǎn)中立,無特殊偏好,無論獲益或損失都不影響其對(duì)方案的看法;P值為0.5代表風(fēng)險(xiǎn)愛好者,較重視獲益勝于損失,因此降低對(duì)損失的權(quán)重;P值為2則為風(fēng)險(xiǎn)規(guī)避者,當(dāng)遇到既有方案與參考方案比較時(shí),會(huì)叫重視既有方案的損失而非參考方案的獲益。

      表1 實(shí)驗(yàn)方法在各有限理性決策者偏好效用函數(shù)的比較表

      更進(jìn)一步在PROSPECT下設(shè)立不同參考點(diǎn)的情境,分別為maX、min和medium,maX表示在效用函數(shù)計(jì)算時(shí),取各準(zhǔn)則的最大值作為參考方案,以獲得對(duì)方案損失或獲益的評(píng)價(jià)。反之,min則取各準(zhǔn)則的最小值作為參考方案。由于在最初生成方案時(shí),準(zhǔn)則都是介于0到1間的隨機(jī)數(shù),因此取其中間數(shù)0.5作為參考方案及參考方案的個(gè)準(zhǔn)則值都為0.5,是為medium。在P=1的情況下,不會(huì)因參考方案對(duì)權(quán)重產(chǎn)生影響,因此予以省略。

      3 實(shí)驗(yàn)數(shù)據(jù)選擇與結(jié)果分析

      本文設(shè)計(jì)以Lahdelma(2003)為基礎(chǔ),實(shí)驗(yàn)數(shù)據(jù)生成的部分包含的變量包含方案數(shù)、準(zhǔn)則數(shù)及分配方式,在加上權(quán)重分配以及是否為有限理性決策集合,共五個(gè)變量。實(shí)驗(yàn)方法考慮有限理性決策者偏好效用函數(shù)和多準(zhǔn)則決策方法,總共四個(gè)因變量在R X64 3.1.0上進(jìn)行25次的模擬實(shí)驗(yàn)。表2列出本實(shí)驗(yàn)的所有操作性變量和控制性變量。

      表2 操作性變量與控制性變量列表

      本文設(shè)計(jì)的實(shí)驗(yàn)數(shù)據(jù)包含準(zhǔn)則數(shù)和分配方式兩個(gè)控制變量。并針對(duì)每種樣本進(jìn)行25次重復(fù)實(shí)驗(yàn),生成的資料范圍為兩個(gè)準(zhǔn)則數(shù)和兩種分配方式。方案數(shù)(m)固定為8組方案集合,準(zhǔn)則數(shù)(n)分成3個(gè)準(zhǔn)則和6個(gè)準(zhǔn)則,分配方式(d)可分為SPHERE球面分配和SIMPLEX簡(jiǎn)單分配。

      Sphere_X(n)為SPHERE球面分配的生成方式,其虛擬程序代碼如下:

      SIMPLEX簡(jiǎn)單分配在生成資料的部分與SPHERE球面分配大致相同,雖然SIMPLEX法也可使用拒絕法,但在高維度下效率不明顯,隨機(jī)生成一組符合限制式的N為資料并將其降冪排列,任意兩個(gè)連續(xù)數(shù)值間差異具有密度函數(shù)f(xj)=n(1-xj)n-1將其兩兩間的差視為一筆資料,并進(jìn)行有效性的判定。Simple_X(n)為SIMPLEX簡(jiǎn)單分配的方式,以虛擬程序碼的方式呈現(xiàn)如下:

      在效用函數(shù)部分,除了VIKOR外,CHEBYCHEEF在各實(shí)驗(yàn)方法中都為最小值,可以推測(cè)當(dāng)有限理性決策者的偏好誒線性時(shí),PLP法與AHP最能反映有限理性決策者的決策。本文以表3來解釋。為去掉實(shí)驗(yàn)方法與有限理性決策者偏好效用函數(shù)間的關(guān)聯(lián)程度與差異是否顯著,本文以Kendall's檢定作為驗(yàn)證。

      表3中的tau值表示相關(guān)程度,p則是雙尾時(shí)的p值表示其差異的顯著程度。從實(shí)驗(yàn)方法來看,AHP對(duì)CHEBYCHEEF的tau值為-1,表示當(dāng)有限理性決策者偏好為CHEBYCHEEF時(shí),使用AHP法會(huì)得到完全相反的結(jié)果。本文推估是因?yàn)镃HEBYCHEEF的公式帶有負(fù)號(hào)以及AHP法的兩兩比較所導(dǎo)致,造成其方法排序會(huì)完全與效用函數(shù)的排序相反。以p值來看,兩者其實(shí)是完全負(fù)相關(guān)的,因此有限理性決策者偏好為CHEBYCHEEF時(shí)使用AHP法需特別注意。PLP法雖然在PROSPECT與CHEBYCHEFF尚不完全相等,但其p值小于0.05,表示具顯著的一致性。由于PROSPECT仍是以線性為基礎(chǔ),僅多了對(duì)權(quán)重的調(diào)整,因此其差距為次小者。PROSPECT和CHEBYCHEEF兩種效用函數(shù)的差值較大,代表當(dāng)有限理性決策者的偏好為這兩個(gè)函數(shù)時(shí),不適合使用VIKOR法作為工具。

      表3為25次重復(fù)實(shí)驗(yàn)的平均值,并非代表所有樣本都未通過Kendall's檢定。在本文獲得的80530筆資料中,共有20520筆數(shù)據(jù)的p值大于0.05,表示其與有限理性決策者偏好效用函數(shù)具有顯著差異。表4為p值大于0.05的20520筆資料在各個(gè)變量表現(xiàn)的情形:

      表3 Kendall’s檢定結(jié)果表

      表4 顯著差異樣本在各變量的比例表(單位:%)

      從表4中可看出,在生成方案與權(quán)重的部分其比重差異不大,主要差異來自偏好效用函數(shù)中的PROSPECT函數(shù),以及實(shí)驗(yàn)方法中的VIKOR法上。表示這兩者可能在排序上的特性容易導(dǎo)致顯著差異。因此當(dāng)有限理性決策者的偏好為PROSPECT時(shí)應(yīng)特別注意選用的方法,而VIKOR法可能不適用于排序方案。PLP法與AHP法雖然都為互動(dòng)法,但在互動(dòng)次數(shù)與反映有限理性決策者偏好的準(zhǔn)確度上仍有差異。由于PLP法的過程中內(nèi)含CHEBYCHEEF函數(shù),因此其在CHEBYCHEEF時(shí)可以完全反映有限理性決策者的偏好,但在采用其他偏好效用函數(shù)時(shí)則會(huì)產(chǎn)生偏差,雖然以整體而言仍具有顯著的一致性,但卻不保證PLP法排序出的最佳方案即是有限理性決策者的理想方案。反之,AHP則無內(nèi)含的函數(shù),不同偏好的效用函數(shù)都可完整的帶入其中,因此在PROSPECT、CHEBYCHEFF時(shí)都具有顯著一致性。不過AHP法雖可一次將所有方法進(jìn)行排序,但無論樣本型態(tài),因此本文的方案數(shù)為8,每次的AHP方法都需要25次的成對(duì)比較。反之,PLP法在樣本不為有限理性決策集合時(shí),僅需一次互動(dòng)就可獲得最佳解,若為有限理性決策集合,則平均為4.43次的兩兩比較。

      4 結(jié)論

      本文通過30次的重復(fù)實(shí)驗(yàn),比較有限理性決策者偏好效用函數(shù)與MCDM方法間排序的差異,以及不同樣本模型對(duì)實(shí)驗(yàn)結(jié)果的影響,提出以下結(jié)論:

      (1)有限理性決策問題有效解集合時(shí)較結(jié)構(gòu)化問題有效解集合時(shí)的平均絕對(duì)差值來得大,是因?yàn)橛邢蘩硇詻Q策問題內(nèi)的方案較無明顯優(yōu)劣差異,因此造成實(shí)驗(yàn)方法的排序較為困難,易與有限理性決策偏好函數(shù)產(chǎn)生差異。

      (2)PLP法與AHP法通過互動(dòng)的方式能較VIKOR法的排序更為準(zhǔn)確地提供符合有限理性決策者偏好的方案。因此本文認(rèn)為交互式方法的確能提供有限理性決策者較好的排序?;?dòng)方法中的PLP法又較AHP法更好,原因在于其互動(dòng)次數(shù)遠(yuǎn)較AHP法來得少。雖然因其方法的關(guān)系,內(nèi)含CHEBYCHEFF函數(shù)的基礎(chǔ),但在各偏好效用函數(shù)上仍具有顯著一致性,可以充分表達(dá)各種偏好的排序。

      (3)除交互式方法外,當(dāng)有限理性決策者偏好為PROSPECT時(shí)須特別注意選用方法,本文的三種方法在PROSPECT函數(shù)時(shí),產(chǎn)生的平均絕對(duì)差值較大,表示這些方法都較無法充分表達(dá)有限理性決策者的偏好并加以排序。

      (4)以本文而言VIKOR法較不適用于排序方案、篩選最佳方案,因?yàn)榕c三種有限理性決策者偏好效用函數(shù)的平均絕對(duì)差值都最大,且不具有顯著的一致性。

      [1]Anderson R M,Clemen R Toward an Improved Methodology to Construct and Reconcile Decision Analytic Preference Judgments[J].Decision Analysis,2013(10).

      [2]董堅(jiān),陳春芳.溫磊基于等級(jí)偏好占優(yōu)關(guān)聯(lián)系數(shù)的群決策模型[J].統(tǒng)計(jì)與決策,2015,(05).

      [3]盧劍峰.混合多屬性群決策理想點(diǎn)方法[J].統(tǒng)計(jì)與決策,2014,(19). [4]李春好,蘇航,佟軼杰.孫永河基于理想決策單元參照求解策略的DEA交叉效率評(píng)價(jià)模型[J].中國(guó)管理科學(xué),2015,(02).

      [5]李光旭,彭怡.寇綱不確定冪加權(quán)幾何平均算子的動(dòng)態(tài)多目標(biāo)決策[J].系統(tǒng)工程理論與實(shí)踐,2015,(07).

      (責(zé)任編輯/易永生)

      C931

      A

      1002-6487(2016)20-0057-04

      天津市教委高等學(xué)校人文社會(huì)科學(xué)研究項(xiàng)目(20132421)

      魏靜(1983—),女,天津人,碩士,講師,研究方向:企業(yè)管理、財(cái)務(wù)管理。

      猜你喜歡
      效用函數(shù)決策者排序
      排序不等式
      熱浪滾滾:新興市場(chǎng)決策者竭力應(yīng)對(duì)通脹升溫 精讀
      英語文摘(2021年12期)2021-12-31 03:26:20
      效用函數(shù)模型在動(dòng)態(tài)三角模糊多屬性決策中的應(yīng)用
      恐怖排序
      節(jié)日排序
      “最關(guān)鍵”的施工力量——決策者、執(zhí)行者與實(shí)施者
      基于冪效用函數(shù)的最優(yōu)投資消費(fèi)問題研究
      刻舟求劍
      兒童繪本(2018年5期)2018-04-12 16:45:32
      供給側(cè)改革的微觀基礎(chǔ)
      決策者聲望尋求行為、團(tuán)隊(duì)努力與團(tuán)隊(duì)績(jī)效
      軟科學(xué)(2014年8期)2015-01-20 15:36:56
      鹿泉市| 连云港市| 文昌市| 沅江市| 福贡县| 兴仁县| 邯郸县| 杭州市| 旅游| 石景山区| 四平市| 广德县| 永春县| 鲁山县| 资阳市| 四会市| 炎陵县| 柘城县| 余干县| 四平市| 仁怀市| 彝良县| 梅州市| 南京市| 巴林右旗| 军事| 亚东县| 夏津县| 闻喜县| 铜川市| 东阳市| 油尖旺区| 八宿县| 扬州市| 思茅市| 黑山县| 恩平市| 广宗县| 青州市| 堆龙德庆县| 唐海县|