■文/王輝 青秀玲 董瑜(中國科學(xué)院文獻(xiàn)情報中心)
任何人的身體、經(jīng)濟、社會、政治、文化或精神層面都不應(yīng)受到AI系統(tǒng)的傷害。各國政府、私營部門、國際組織、技術(shù)界和學(xué)術(shù)界在介入與AI相關(guān)過程時,必須尊重人權(quán)框架。在人與AI系統(tǒng)的互動過程中不應(yīng)將人物化,新技術(shù)需要提供行使和捍衛(wèi)人權(quán)的新方法,而非侵犯人權(quán)。
遵守相關(guān)國際國內(nèi)法規(guī)、標(biāo)準(zhǔn)和做法,保護和恢復(fù)環(huán)境和生態(tài)系統(tǒng),促進(jìn)可持續(xù)發(fā)展。減少AI系統(tǒng)對環(huán)境的影響,確保將氣候變化和環(huán)境風(fēng)險降到最低。
依照國際法(包括人權(quán)法)尊重、保護和促進(jìn)多樣性和包容性,使所有個人和群體都能積極參與到AI系統(tǒng)的生命周期中。AI不應(yīng)限制個人生活方式、信仰、觀點、表達(dá)或體驗的選擇。通過國際合作等方式,努力解決不發(fā)達(dá)地區(qū)缺少必要技術(shù)基礎(chǔ)設(shè)施、教育、技能以及法律框架的問題。
在AI系統(tǒng)生命周期中,促進(jìn)和平、包容、公平與公正,確保建設(shè)人人受益的相互關(guān)聯(lián)的未來。AI系統(tǒng)生命周期過程不得破壞自由和自主決策以及人類和社區(qū)的安全,使個人和群體相互分裂和對立,或威脅人類、其他生物和自然環(huán)境之間的和諧共處。
為實現(xiàn)特定合法目的而選擇的AI解決方案應(yīng)是適當(dāng)?shù)?;選取的AI解決方案不應(yīng)違反本建議書提出的基本價值觀,尤其是不得侵犯或濫用人權(quán);AI解決方案應(yīng)契合具體情況,并建立在嚴(yán)謹(jǐn)?shù)目茖W(xué)論證基礎(chǔ)上;在涉及生死抉擇的情況下,應(yīng)由人類做出最終決定。
在AI系統(tǒng)生命周期中,應(yīng)避免意外傷害(安全風(fēng)險),預(yù)防和消除系統(tǒng)受攻擊的可能性(安保風(fēng)險),確保人類、環(huán)境和生態(tài)系統(tǒng)的安全。開發(fā)可持續(xù)的、保護隱私的數(shù)據(jù)訪問框架,利用優(yōu)質(zhì)數(shù)據(jù)更好地訓(xùn)練和驗證AI模型,保障AI安全。
既要確保地區(qū)、國家和國際層面都能獲得AI技術(shù)帶來的益處,又要考慮到不同群體(特別是少數(shù)群體和弱勢群體)的具體需求。盡量減少和避免技術(shù)偏見,確保AI系統(tǒng)的公平性。提供有效的補救措施糾正歧視和有偏見的算法。解決國家內(nèi)部和國家間的數(shù)字和知識鴻溝,使每個人都能公平獲取技術(shù)和數(shù)據(jù)。
對AI技術(shù)的社會、文化、經(jīng)濟和環(huán)境影響進(jìn)行評估時,應(yīng)充分認(rèn)識到AI技術(shù)對實現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標(biāo)(多維的且不斷變化的系列目標(biāo))的影響。
(1)完成消化道潰瘍案例小測試:該小測試中,梗概性內(nèi)容占60%,細(xì)節(jié)性內(nèi)容占40%。小測驗利用手機掃描二維碼進(jìn)入考試系統(tǒng)??荚嚂r間為10分鐘,時間到或者點擊提交試驗考試結(jié)束,系統(tǒng)自動為每一個學(xué)生評分和記錄小測驗用時。學(xué)生答題時間小于1分鐘時為無效試卷。(2)教師對學(xué)生的評價:教師從5個方面評價學(xué)生①學(xué)習(xí)意愿和態(tài)度(20分);②知識信息收集(10分);③分析思考能力(40分);④溝通表達(dá)能力(15分);⑤團隊合作(15分)??偡?00分。
AI系統(tǒng)數(shù)據(jù)的收集、使用、共享、存儲和刪除必須符合國際法以及本建議書規(guī)定的價值觀和原則,同時尊重相關(guān)國家、區(qū)域和國際法律框架。監(jiān)管機構(gòu)應(yīng)在國家或國際層面建立適當(dāng)?shù)臄?shù)據(jù)保護框架和治理機制。算法系統(tǒng)應(yīng)充分評估隱私影響,AI參與者要對AI系統(tǒng)的設(shè)計和實施負(fù)責(zé)。
應(yīng)確保始終由自然人或法律實體承擔(dān)AI倫理和法律責(zé)任,人類在決策和行動上可借助AI系統(tǒng),但AI系統(tǒng)不能取代人類的責(zé)任和問責(zé),不應(yīng)交由AI系統(tǒng)做生死攸關(guān)的決定。
努力提高AI系統(tǒng)的透明度和可解釋性,支持民主治理。根據(jù)AI算法做出決定時,人們有權(quán)知道并要求私營或公共機構(gòu)提供解釋性信息,確保借助AI獲得的結(jié)果和過程可理解、可追溯。
AI參與者應(yīng)根據(jù)現(xiàn)行國際、國內(nèi)法律承擔(dān)法律和倫理責(zé)任,即AI參與者承擔(dān)基于AI系統(tǒng)做出決策和行動的責(zé)任。應(yīng)建立適當(dāng)?shù)谋O(jiān)督、影響評估、審查和盡職調(diào)查機制,確??梢詫I系統(tǒng)及其整個生命周期的影響進(jìn)行問責(zé)。技術(shù)和機制的設(shè)計應(yīng)確保AI系統(tǒng)可審查、可追溯,特別是在應(yīng)對人權(quán)沖突以及環(huán)境和生態(tài)系統(tǒng)威脅時。
應(yīng)通過開放獲取的教育、數(shù)字技能和AI倫理培訓(xùn)以及媒體和信息素養(yǎng)培訓(xùn),提升公眾對AI技術(shù)和數(shù)據(jù)價值的認(rèn)識和理解,確保公眾的有效參與,讓所有社會成員在使用AI系統(tǒng)時能夠做出知情決定,免受不利影響。
利益相關(guān)者的參與對于采用包容性AI治理措施,實現(xiàn)共同利益和促進(jìn)可持續(xù)發(fā)展十分必要。應(yīng)通過開放標(biāo)準(zhǔn)和互操作性促進(jìn)協(xié)作,并兼顧技術(shù)的變化以及新的利益相關(guān)者的出現(xiàn),允許邊緣化群體、社區(qū)和個人參與AI治理。
主要包括:成員國應(yīng)引入影響評估框架,確定并評估AI系統(tǒng)的益處、關(guān)注點、風(fēng)險及預(yù)防、緩解和監(jiān)測風(fēng)險的措施;成員國和私營企業(yè)應(yīng)建立調(diào)查和監(jiān)督機制,確定、防止并減輕AI系統(tǒng)對人權(quán)、法治和包容性社會產(chǎn)生的影響;各國政府應(yīng)制定監(jiān)管框架開展針對AI系統(tǒng)的倫理影響評估。
主要包括:成員國應(yīng)確保所有AI治理機制均有包容性、透明性、多學(xué)科、多邊和多利益相關(guān)者參與的特征,治理包括預(yù)測、保護、監(jiān)測影響、執(zhí)行和補救等方面;成員國應(yīng)通過執(zhí)法機制和補救行動,調(diào)查和糾正AI系統(tǒng)造成的傷害;鼓勵成員國制定國家和區(qū)域AI戰(zhàn)略,并考慮軟治理形式(如AI系統(tǒng)認(rèn)證機制);成員國應(yīng)對現(xiàn)有的、擬議的AI系統(tǒng)進(jìn)行透明評估;成員國應(yīng)鼓勵不同利益相關(guān)者參與,并考慮增加AI倫理官員或其他機制監(jiān)督倫理治理;成員國應(yīng)促進(jìn)數(shù)字生態(tài)系統(tǒng)的開發(fā)和訪問,在國家層面實現(xiàn)AI系統(tǒng)的倫理和包容性發(fā)展;應(yīng)建立合作機制,確保成員國積極參與AI治理的討論;修訂涉及AI系統(tǒng)的法規(guī)和制定新法必須遵守成員國的人權(quán)法;成員國應(yīng)提高司法機構(gòu)的能力,做出與AI系統(tǒng)有關(guān)的裁定;成員國應(yīng)確保政府和多邊組織在AI系統(tǒng)的安全保障方面發(fā)揮主導(dǎo)作用;成員國應(yīng)確保AI參與者遵守國際人權(quán)法、標(biāo)準(zhǔn)和原則,同時充分考慮當(dāng)?shù)氐奈幕蜕鐣鄻有?;成員國應(yīng)建立減少不平等、偏見和虛假錯誤的機制;成員國應(yīng)促進(jìn)和增加AI開發(fā)和數(shù)據(jù)訓(xùn)練中的多樣性和包容性;成員國應(yīng)酌情制定、審查和采用監(jiān)管框架,實現(xiàn)對AI系統(tǒng)內(nèi)容和結(jié)果的負(fù)責(zé)和問責(zé);成員國應(yīng)使所有AI參與者參與制定規(guī)范或采用現(xiàn)有法規(guī),并鼓勵利用監(jiān)管沙盒等機制,加快法律、法規(guī)和政策的制定進(jìn)程;成員國應(yīng)對AI系統(tǒng)的透明度和可解釋性提出明確要求。
主要包括:成員國應(yīng)制定數(shù)據(jù)治理戰(zhàn)略,確保持續(xù)評估AI系統(tǒng)訓(xùn)練數(shù)據(jù)的質(zhì)量;成員國應(yīng)根據(jù)國際法制定適當(dāng)?shù)谋U洗胧┍Wo隱私權(quán);成員國應(yīng)制定數(shù)據(jù)政策或框架,確保個人數(shù)據(jù)和敏感數(shù)據(jù)的安全;成員國應(yīng)促進(jìn)數(shù)據(jù)開放,支持安全、公平、合理合法地共享數(shù)據(jù);成員國應(yīng)監(jiān)督數(shù)據(jù)的采集和使用,促進(jìn)高質(zhì)量、穩(wěn)健數(shù)據(jù)集的利用,使其便于AI系統(tǒng)的訓(xùn)練、開發(fā)和應(yīng)用;成員國應(yīng)在聯(lián)合國的支持下,考慮采用數(shù)據(jù)共享措施,提升工具和數(shù)據(jù)集的互操作性,并增加數(shù)據(jù)系統(tǒng)接口,鼓勵私營企業(yè)與利益相關(guān)者共享數(shù)據(jù)以服務(wù)于研究、創(chuàng)新和公共利益。
主要包括:成員國和跨國企業(yè)應(yīng)在相關(guān)國際、政府間和多利益相關(guān)者論壇上討論與AI有關(guān)倫理問題;成員國應(yīng)確保在教育、科學(xué)、文化等領(lǐng)域使用A I,并遵守本建議書的價值觀和原則;成員國應(yīng)提供國際合作平臺,促進(jìn)利用AI來解決發(fā)展問題;成員國應(yīng)努力促進(jìn)AI研究和創(chuàng)新方面的國際合作;成員國應(yīng)使國際組織、研究機構(gòu)和跨國企業(yè)參與進(jìn)來,共同推進(jìn)AI倫理的研究。
主要包括:成員國和企業(yè)應(yīng)評估AI對環(huán)境的直接和間接影響,包括但不限于其碳足跡、能耗以及開采原材料對環(huán)境造成的影響,應(yīng)確保所有AI參與者遵守環(huán)境法律、政策和慣例;成員國應(yīng)采取激勵措施,開發(fā)和利用基于人權(quán)和倫理的AI解決方案;考慮到AI的資源密集型和數(shù)據(jù)密集型特征及其對環(huán)境的影響,成員國應(yīng)確保AI參與者根據(jù)相稱原則,選擇數(shù)據(jù)、資源和能源效率高的AI解決方案。
主要包括:成員國應(yīng)確保在AI系統(tǒng)生命周期的任何階段,女童和婦女的權(quán)利、基本自由和安全不受侵犯;成員國應(yīng)從公共預(yù)算中劃撥專項資金,用于資助與性別平等有關(guān)的計劃,并制定相關(guān)政策,確保其不被排除在AI驅(qū)動的數(shù)字經(jīng)濟外;成員國應(yīng)識別并積極糾正AI系統(tǒng)中的性別歧視和偏見問題;成員國應(yīng)通過激勵措施、支持制度和政策,鼓勵女性創(chuàng)業(yè)并參與到AI系統(tǒng)生命周期的各個階段中;成員國應(yīng)通過激勵措施鼓勵女性參與AI研究。
主要包括:鼓勵成員國在物質(zhì)與非物質(zhì)文化遺產(chǎn)保護、豐富、推廣、管理等領(lǐng)域采用AI系統(tǒng);鼓勵成員國審查并應(yīng)對AI系統(tǒng)產(chǎn)生的文化影響,特別是自動翻譯和語音助手等應(yīng)用程序給人類語言和表達(dá)帶來的影響;成員國應(yīng)促進(jìn)針對藝術(shù)家和創(chuàng)意專家的AI教育和培訓(xùn),評估AI技術(shù)在其專業(yè)的適用性,使AI技術(shù)應(yīng)用于文化產(chǎn)品和服務(wù);成員國應(yīng)提高當(dāng)?shù)匚幕I(lǐng)域中小企業(yè)對AI工具的認(rèn)識和應(yīng)用;成員國應(yīng)促進(jìn)AI和知識產(chǎn)權(quán)的交叉研究,并評估AI技術(shù)對知識產(chǎn)權(quán)所有者權(quán)利和利益的影響;成員國應(yīng)鼓勵國家級的博物館、畫廊、圖書館和檔案館使用AI系統(tǒng)。
主要包括:成員國應(yīng)與國際組織、教育機構(gòu)、私營和非政府實體合作,向公眾提供AI素養(yǎng)教育;成員國應(yīng)推進(jìn)AI必備技能,以及批判性和創(chuàng)造性思維、團隊合作、溝通、社會情感和AI倫理等技能的培養(yǎng);成員國應(yīng)推進(jìn)通用計劃,提高對AI的認(rèn)識;成員國應(yīng)鼓勵在教學(xué)、教師培訓(xùn)和線上學(xué)習(xí)等活動中負(fù)責(zé)任地使用AI技術(shù);成員國應(yīng)促進(jìn)少數(shù)和弱勢群體參與和主導(dǎo)AI教育計劃、監(jiān)測并共享最佳實踐;成員國應(yīng)開發(fā)符合國家教育計劃和慣例的AI倫理課程,促進(jìn)AI技能教育與其他AI教育的合作;成員國應(yīng)促進(jìn)和支持AI研究,尤其是AI倫理研究,推廣發(fā)展AI的最佳實踐;成員國應(yīng)確保AI研究人員接受研究倫理的培訓(xùn);成員國應(yīng)鼓勵私營企業(yè)為科研群體提供數(shù)據(jù)訪問的便利;成員國應(yīng)確保任何未來AI技術(shù)的開發(fā)都建立在嚴(yán)格、獨立的科學(xué)研究基礎(chǔ)之上,促進(jìn)跨學(xué)科AI研究。
主要包括:成員國應(yīng)使用AI系統(tǒng)改善信息和知識的獲取,增強言論、學(xué)術(shù)和信息獲取的自由,增加官方數(shù)據(jù)和信息的主動披露;成員國應(yīng)確保AI參與者尊重并促進(jìn)言論自由,以及與自動內(nèi)容生成、審核有關(guān)的信息獲取自由;成員國應(yīng)投資并促進(jìn)數(shù)字、媒體和信息素養(yǎng)技能,減少和打擊虛假信息、錯誤信息和仇恨言論。
主要包括:成員國應(yīng)評估并應(yīng)對AI系統(tǒng)對勞動力市場的沖擊和對教育需求的影響;成員國應(yīng)支持政府、學(xué)術(shù)機構(gòu)、產(chǎn)業(yè)界、勞工組織和民間社會之間的合作,彌合技能需求的鴻溝;成員國應(yīng)與利益相關(guān)者開展合作,確保面臨職業(yè)風(fēng)險的雇員能夠平穩(wěn)過渡,還應(yīng)制定和實施研究和應(yīng)對勞動力挑戰(zhàn)的計劃;成員國應(yīng)鼓勵和支持研究人員分析AI系統(tǒng)對當(dāng)?shù)貏趧迎h(huán)境的影響,以預(yù)測未來趨勢和挑戰(zhàn);成員國應(yīng)采取適當(dāng)措施保護競爭性市場和消費者,防止濫用市場主導(dǎo)地位。
主要包括:成員國應(yīng)努力運用AI系統(tǒng)改善人類健康并保護生命權(quán);成員國應(yīng)確保AI健康(特別是心理健康)系統(tǒng)的開發(fā)和部署受到監(jiān)管,支持循證創(chuàng)新和醫(yī)學(xué)進(jìn)步,鼓勵患者和及其代表參與系統(tǒng)開發(fā);成員國應(yīng)制定人機交互及其對人際關(guān)系影響的指南;成員國應(yīng)確保用戶能夠輕松識別是在與人還是與AI系統(tǒng)交互,并能拒絕此類交互;成員國應(yīng)鼓勵和促進(jìn)合作,研究人與AI系統(tǒng)長期交互的影響,還應(yīng)鼓勵研究AI技術(shù)對健康產(chǎn)生的影響,特別是對兒童和青年人員心理和認(rèn)知產(chǎn)生的影響;成員國應(yīng)建立機制,使兒童和青年人參與到AI系統(tǒng)對其生活和未來影響的對話、辯論和決策中。