蘇 明,陳·巴特爾
(1.汕頭大學(xué)高等教育研究所,廣東 汕頭 515063;2.南開大學(xué)周恩來政府管理學(xué)院,天津 300350)
圖靈獎得主Jim Gray認(rèn)為,今天在科學(xué)的很多領(lǐng)域里,科學(xué)家們已不再透過望遠(yuǎn)鏡觀察,而是由儀器采集或模擬產(chǎn)生數(shù)據(jù),再通過軟件處理,將產(chǎn)生的信息或知識存儲在計(jì)算機(jī)里,在數(shù)據(jù)采集、數(shù)據(jù)處理、知識存儲、知識應(yīng)用等數(shù)據(jù)化知識生產(chǎn)的全鏈條中,人所發(fā)揮的作用越來越小,人智對科學(xué)發(fā)明的決定性作用正在消失,許多科學(xué)研究已經(jīng)不再苛求于科學(xué)家的親力親為和靈光一現(xiàn),而是更加重視數(shù)據(jù)系統(tǒng)的硬件和軟件建設(shè),進(jìn)而把知識生產(chǎn)轉(zhuǎn)變?yōu)槌淌交?、?guī)范化、智能化的機(jī)械流水線[1]。Gray把知識生產(chǎn)總結(jié)為四種范式 (不同于庫恩定義的范式):第一范式是以簡單數(shù)量關(guān)系與通則論為基礎(chǔ)的定性研究;第二范式是以小樣本數(shù)據(jù)外推復(fù)雜因果關(guān)系的定量研究;第三范式是以有限數(shù)據(jù)模擬科學(xué)結(jié)論的仿真研究;第四范式是以全樣本大數(shù)據(jù)驅(qū)動的數(shù)據(jù)密集型研究[2]。傳統(tǒng)知識生產(chǎn)范式對大數(shù)據(jù)時代的海量數(shù)據(jù)束手無策,長期面臨 “數(shù)據(jù)很豐富,缺乏分析能力”的問題,以深度學(xué)習(xí)為核心的新一代人工智能使得基于大數(shù)據(jù)的知識生產(chǎn)成為現(xiàn)實(shí)。本文分析了新一代人工智能與人腦知識生產(chǎn)的比較優(yōu)勢和人工智能知識生產(chǎn)的問題,并提出改進(jìn)建議。
新一代人工智能是以深度學(xué)習(xí)為代表的人工神經(jīng)網(wǎng)絡(luò)方法,本質(zhì)上是一種對生物神經(jīng)元的模擬而形成的數(shù)據(jù)分析技術(shù),主要包括數(shù)據(jù)訓(xùn)練過程和模型應(yīng)用過程,如圖1所示。
圖1 深度學(xué)習(xí)的運(yùn)行流程
人腦是一個功能非常強(qiáng)大的信息處理器,有860億個神經(jīng)元,僅僅人的眼睛每秒處理的數(shù)據(jù)量就高達(dá)140.34GB,而且能夠同步處理圖像、聲音、溫度、氣味等數(shù)據(jù),每秒大腦神經(jīng)網(wǎng)絡(luò)處理數(shù)據(jù)達(dá)1000億次,相當(dāng)于50億本書的存儲容量[3]。人工神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元數(shù)量在近些年中快速增長,但是也沒有超過人腦的水平。目前人工神經(jīng)元數(shù)量最多的是2020年浙江大學(xué)與之江實(shí)驗(yàn)室研發(fā)的 “達(dá)爾文二代”人工腦,共含有1.188億個人工神經(jīng)元,但也只是達(dá)到小鼠的大腦神經(jīng)元水平。盡管如此,人工智能還是具有很強(qiáng)的優(yōu)勢,主要是因?yàn)槿四X存在以下兩方面的局限:
其一,人腦對數(shù)字?jǐn)?shù)據(jù)的處理能力極差。Hans Moravec發(fā)現(xiàn),駕駛等人類很容易做到的事情人工智能做起來卻很困難,同時也有一些人工智能做起來容易的事情人卻很困難,這個特點(diǎn)最顯著的領(lǐng)域就是數(shù)字計(jì)算。普通人計(jì)算兩個兩位數(shù)的相乘就已經(jīng)很困難,機(jī)器卻能夠快速準(zhǔn)確地計(jì)算非常復(fù)雜的數(shù)據(jù),同時,數(shù)字?jǐn)?shù)據(jù)早已取代書籍、報紙等媒介數(shù)據(jù),成為數(shù)據(jù)的主要形式。在2000年,數(shù)字?jǐn)?shù)據(jù)僅占全球數(shù)據(jù)總量的25%,到2007年這一占比就達(dá)到了93%,越來越多的數(shù)據(jù)是以數(shù)字的形式存儲,而人類所能理解的書籍、報紙等媒介數(shù)據(jù)占比大幅下降[4]。面對數(shù)十ZB級的數(shù)字?jǐn)?shù)據(jù),人工智能可以彌補(bǔ)人腦無法處理大數(shù)據(jù)的缺陷,將人腦無法利用的海量數(shù)字?jǐn)?shù)據(jù)自動化地搜集、分析和可視化呈現(xiàn),把人腦無法分析的數(shù)字?jǐn)?shù)據(jù)可視化為人腦可以分析的媒介數(shù)據(jù)。
其二,人腦的信息存儲能力不足。遺忘是人腦的顯著特征,人腦24小時的遺忘率高達(dá)66.3%,回憶或提取信息非常困難,而對于短期記憶,如果輸入的信息量太大,人腦也很難保存。因此,人腦在信息處理中總是使用片段數(shù)據(jù),無法處理數(shù)據(jù)的全景,再加上人腦的數(shù)據(jù)獲取會受到個體經(jīng)歷差異的影響,導(dǎo)致人的知識生產(chǎn)常常帶有主觀性,甚至是片面性,而網(wǎng)絡(luò)中的數(shù)據(jù)具有 “永久記憶”的特征,即使經(jīng)過再長的時間也不會被遺忘,信息損耗較小。
人工智能非常擅長模仿生成一種與數(shù)據(jù)訓(xùn)練樣本風(fēng)格相似的作品,而且在許多領(lǐng)域的應(yīng)用中有超越人的表現(xiàn),如表1所示。人工智能程序的運(yùn)算效率比人更快、信息獲取更便捷,能夠時時刻刻關(guān)注到動態(tài)數(shù)據(jù),并在第一時間進(jìn)行數(shù)據(jù)分析和處理。人工智能搜集信息、加工信息和推送信息的銜接更流暢,各知識生產(chǎn)環(huán)節(jié)銜接的間隔時間很少。
人工智能知識生產(chǎn)具有很大的比較優(yōu)勢,同時產(chǎn)生了新的問題,主要體現(xiàn)在以下方面:
其一,人工智能知識生產(chǎn)的理解困境??衫斫庑允侵R的基本要求,知識加工就是一個知識理解的過程,人無法從自己不理解的知識中建構(gòu)和生長出新的知識,也無從知曉其價值和可靠性,更無法在知識分享中讓他人獲得理解。人在知識生產(chǎn)中會形成 “如果A,那么B”的產(chǎn)生式規(guī)則,而人之所以能夠在A和B之間建立聯(lián)系,一定是基于自己對A和B兩個事物或行為的理解之上。而人工智能只是按照算法規(guī)則將數(shù)據(jù)處理之后輸出一個結(jié)果,由于缺乏先驗(yàn)的知識定義,人只能知道數(shù)據(jù)處理中有哪些維度以及各維度的參數(shù),卻無法理解為何輸出這一結(jié)果,其知識生產(chǎn)過程是不可理解的黑箱。美國已有一半以上的州使用COMPAS、PSA、LSI-P等智能量刑評估軟件來裁定犯人的量刑,但是人工智能對犯人信息的運(yùn)算過程不可理解,法官和犯人都不知道為何會輸出這樣的結(jié)果,只能接受程序的輸出結(jié)果就是如此,而人工智能的算法是否有效、結(jié)果是否準(zhǔn)確、量刑的依據(jù)是否可靠都存在疑問,法律的程序正義受到極大挑戰(zhàn)[6]。
表1 人工智能與人的比較
其二,人工智能與精英權(quán)力的弱化。在某種程度上,精英在高深知識生產(chǎn)中具有壟斷性,在知識解釋和知識應(yīng)用中具有權(quán)威性。權(quán)力來自于施加影響的能力,精英在高深知識生產(chǎn)中具有不可替代的作用,也因此獲得與職能相匹配的軟性或硬性權(quán)力。隨著人工智能應(yīng)用的加深,在金融等許多領(lǐng)域人工智能的能力已經(jīng)超過了精英,人工智能生產(chǎn)的知識替代了專家知識,打破了精英知識生產(chǎn)的壟斷性,專家成為知識生產(chǎn)和企業(yè)決策的可替代品,而數(shù)據(jù)的價值顯著擴(kuò)大,各個社會領(lǐng)域中的重要決策不再向外仰賴于專家指導(dǎo),而是向內(nèi)挖掘數(shù)據(jù)的價值。
其三,人工智能知識生產(chǎn)的約束問題。知識生產(chǎn)是在已有知識結(jié)構(gòu)上生長,但是這種生長不是自然生長,而是受約束的生長。一方面,知識生產(chǎn)的目的是為人服務(wù),人的價值選擇和現(xiàn)實(shí)需要引領(lǐng)知識生產(chǎn)的大方向,人的需求是知識生產(chǎn)的主要牽引力;另一方面,人的倫理觀念限制了惡的知識生長,由于知識結(jié)果的不可預(yù)知性,生產(chǎn)出的新知識既可能對人的公共利益有所損害和威脅,也有可能違反人的倫理綱常,因此人必須對知識生產(chǎn)進(jìn)行強(qiáng)力干預(yù)來約束知識生產(chǎn)的過程,并通過人的價值選擇來引導(dǎo)技術(shù)的社會化改造,從而保障知識真正具有造福于人的功能。人工智能的知識生產(chǎn)難以受到人的約束,雖然人設(shè)定了人工智能知識生產(chǎn)的目標(biāo),但卻無法干預(yù)知識生產(chǎn)的過程,也無法預(yù)測知識生產(chǎn)的結(jié)果,人工智能的程序設(shè)計(jì)和開發(fā)者并不具有對智能產(chǎn)品的完全控制力,很有可能造成人工智能的歧視等問題。機(jī)器學(xué)習(xí)讓人工智能產(chǎn)品具有獨(dú)立的判斷、學(xué)習(xí)和決策能力,程序設(shè)計(jì)者只是制定了學(xué)習(xí)規(guī)則而無法準(zhǔn)確判斷其具體影響,人工智能甚至可以突破原有設(shè)定而學(xué)習(xí)到新的規(guī)則。如果生產(chǎn)的知識侵犯了人的利益,該知識生產(chǎn)者需要承擔(dān)相應(yīng)的法律責(zé)任,法律機(jī)制是約束知識生產(chǎn)的主要方法。但是人工智能知識生產(chǎn)卻難以受到法律約束,智能算法的黑箱化讓人們難以分辨清楚造成損失的具體原因,難以制定人工智能法律評判的標(biāo)準(zhǔn),而且人工智能的知識生產(chǎn)過程具有一定的自主性,難以將人工智能知識產(chǎn)品的缺陷歸咎于程序設(shè)計(jì)師,對人工智能知識產(chǎn)品本身施加法律處罰也沒有任何意義,通過法律約束人工智能的知識生產(chǎn)非常困難。
其四,人工智能知識生產(chǎn)的數(shù)據(jù)壟斷問題。數(shù)據(jù)是人工智能知識生產(chǎn)的必備原料,數(shù)據(jù)壟斷直接導(dǎo)致人工智能知識生產(chǎn)的壟斷。數(shù)據(jù)的質(zhì)量差異、搜集成本以及分析能力都會使得數(shù)據(jù)具有很強(qiáng)的排他性。數(shù)據(jù)驅(qū)動的人工智能知識生產(chǎn)最需要解決的問題是數(shù)據(jù)的可得性問題,在智能制造領(lǐng)域這主要體現(xiàn)為需要通過高昂的費(fèi)用布置傳感器來搜集生產(chǎn)過程中的大數(shù)據(jù),而在互聯(lián)網(wǎng)領(lǐng)域這主要體現(xiàn)為需要通過建立對用戶的吸引力來誘使規(guī)模化的用戶自愿成為互聯(lián)網(wǎng)平臺中的數(shù)據(jù)生產(chǎn)者,尤其是互聯(lián)網(wǎng)平臺的雙邊市場特征決定其必然存在走向壟斷的趨勢,基于壟斷數(shù)據(jù)生產(chǎn)的知識也必然是壟斷性的知識。生產(chǎn)知識的目標(biāo)是為了獲取企業(yè)更大的競爭優(yōu)勢,而其中所附帶生產(chǎn)的公共價值也很難被共享,無法形成知識生產(chǎn)的帶動效應(yīng)。
(1)人工智能知識產(chǎn)品是否具有知識產(chǎn)權(quán)?知識產(chǎn)權(quán)是一種針對智力勞動的財產(chǎn)權(quán),其確權(quán)的主要依據(jù)在于判斷該知識產(chǎn)品是否有別于純粹自然狀態(tài)的創(chuàng)造物[7]。顯然,人工智能的知識生產(chǎn)過程也是一種智力活動過程,人工智能知識產(chǎn)品也具有很強(qiáng)的獨(dú)創(chuàng)性,而且人工智能的知識產(chǎn)品已經(jīng)達(dá)到與自然人的知識產(chǎn)品難辨真假的程度。既然自然人生產(chǎn)的知識產(chǎn)品符合知識產(chǎn)權(quán)保護(hù)的要求,那么人工智能的知識產(chǎn)品也應(yīng)該符合知識產(chǎn)權(quán)的保護(hù)要求。但是人工智能的知識生產(chǎn)活動是否是勞動存在極大爭議,知識產(chǎn)權(quán)既是一種私權(quán),也是一種人權(quán),設(shè)立知識產(chǎn)權(quán)是為了保護(hù)人的智力勞動所形成的非實(shí)體成果,使知識產(chǎn)品的生產(chǎn)者獲得智力勞動的應(yīng)有收益而免遭剽竊者的侵害,并以此來激發(fā)人的創(chuàng)造精神。因此,知識產(chǎn)權(quán)一定是自然人的知識產(chǎn)權(quán),而人工智能卻不是自然人。所有的知識產(chǎn)權(quán)理論都強(qiáng)調(diào)被保護(hù)的知識產(chǎn)品必須是自然人的智力勞動成果,美國版權(quán)局規(guī)定作品的法律保護(hù)必須符合人類創(chuàng)作的條件,包括所有動物等非自然人使用工具生成的作品都不受版權(quán)保護(hù)。2011年印尼森林中的一只猿猴使用斯萊特的攝影機(jī)拍攝了一張照片,斯萊特認(rèn)為他應(yīng)當(dāng)享有該照片的版權(quán),但是版權(quán)局拒絕對該照片進(jìn)行版權(quán)登記,法院上訴也被駁回[8]。從這個角度看,人工智能的知識產(chǎn)品肯定沒有知識產(chǎn)權(quán),盡管人工智能知識產(chǎn)品符合知識產(chǎn)權(quán)保護(hù)的獨(dú)創(chuàng)性要求,但是由于人工智能不是自然人,現(xiàn)有法律并不認(rèn)可人工智能的知識產(chǎn)權(quán)。
如果人工智能的知識產(chǎn)品不受法律保護(hù),那么人工智能的知識產(chǎn)品必然會被濫用,鑒于人的知識產(chǎn)品和人工智能知識產(chǎn)品在消費(fèi)市場中處于競爭關(guān)系,人工智能知識產(chǎn)品的濫用必然會導(dǎo)致人的知識產(chǎn)品毫無競爭優(yōu)勢,直接威脅到人的智力勞動的應(yīng)有收益,當(dāng)人的知識產(chǎn)品失去市場和獲益價值,針對自然人的知識產(chǎn)權(quán)法律保護(hù)也就失去了其存在的意義。另一方面,如果人工智能知識產(chǎn)品不受法律保護(hù),隨著人工智能知識產(chǎn)品越來越多,由人工智能知識生產(chǎn)所帶來的財富應(yīng)該如何分配也成為一個亟待解決的問題??傮w上,現(xiàn)有的法律體系非常強(qiáng)調(diào)知識產(chǎn)權(quán)的人權(quán)屬性,并不認(rèn)可人工智能知識產(chǎn)品具有知識產(chǎn)權(quán),但是由此引發(fā)的社會問題要求法律界對知識產(chǎn)權(quán)制度進(jìn)行檢討和改變,近些年中國、日本、歐盟等國家或地區(qū)都在激烈討論人工智能知識產(chǎn)品的產(chǎn)權(quán)保護(hù)問題,仍然沒有達(dá)成共識,鑒于人工智能區(qū)別于一般工具的特殊性,法律界存在一種針對人工智能單獨(dú)立法的傾向。
(2)如果人工智能的知識產(chǎn)品具有知識產(chǎn)權(quán),那么人工智能知識產(chǎn)權(quán)應(yīng)該歸屬于誰?目前只有英國明確規(guī)定了人工智能知識產(chǎn)品的法律地位和歸屬問題,其1988年 《版權(quán)、設(shè)計(jì)和專利法》規(guī)定,對計(jì)算機(jī)所生成的作品進(jìn)行必要的程序設(shè)計(jì)的人員,視為計(jì)算機(jī)生成作品的作者。本法中的計(jì)算機(jī)生成是指作品完全由計(jì)算機(jī)創(chuàng)作,不存在任何人類作者[9]。可以看出,法律設(shè)定了一種特殊情況下的人工智能知識產(chǎn)品歸屬方案,即當(dāng)人工智能完全自主地進(jìn)行知識生產(chǎn)的情況下,人工智能知識產(chǎn)品的產(chǎn)權(quán)明確歸屬于程序設(shè)計(jì)者。然而,當(dāng)前的人工智能仍然不具備完全自主的知識生產(chǎn)能力,人總是需要或多或少地參與到人工智能的知識生產(chǎn)過程中,因此,英國法律雖然進(jìn)行了明確的規(guī)定,但是卻缺乏實(shí)際應(yīng)用場景。在一般知識產(chǎn)權(quán)歸屬的認(rèn)定中,人對知識生產(chǎn)的掌控能力是知識產(chǎn)品具有創(chuàng)造性的根本原因,所以,明確誰具有知識產(chǎn)品生產(chǎn)過程的直接掌控能力是確定誰具有該知識產(chǎn)權(quán)的關(guān)鍵。例如,當(dāng)攝影師使用相機(jī)拍攝照片時,攝影師對取景、光線等內(nèi)容的控制對該照片的獨(dú)創(chuàng)性起決定性作用,那么該攝影師享有該照片的版權(quán),而不是相機(jī)的制造者?;谥R生產(chǎn)中的掌控力,按照一般知識產(chǎn)權(quán)歸屬的認(rèn)定規(guī)則,人工智能知識產(chǎn)品的產(chǎn)權(quán)應(yīng)該歸屬人工智能的使用者,如果該使用者是被雇傭人員,那么該人工智能知識產(chǎn)品的產(chǎn)權(quán)應(yīng)該歸屬于雇主。這種人工智能知識產(chǎn)品的產(chǎn)權(quán)歸屬認(rèn)定辦法存在幾個問題:
其一,相對于一般的機(jī)械工具,人工智能知識生產(chǎn)的自動化水平更高,其獨(dú)創(chuàng)性來源于人工智能程序本身,而人對于人工智能知識產(chǎn)品的獨(dú)創(chuàng)性沒有任何實(shí)質(zhì)性的貢獻(xiàn),這使得人在人工智能知識生產(chǎn)中所發(fā)揮作用的程度遠(yuǎn)小于其他工具的知識生產(chǎn)。因此,把人工智能知識產(chǎn)品的產(chǎn)權(quán)歸屬于使用者會高估使用者的實(shí)際貢獻(xiàn),進(jìn)而造成權(quán)益不平衡和知識生產(chǎn)中過高的收益-投入比率,形成一種 “不勞而獲”的現(xiàn)象。
其二,人工智能知識生產(chǎn)中最核心的資源是數(shù)據(jù),如果把人工智能知識產(chǎn)品的產(chǎn)權(quán)完全歸于使用者,那么數(shù)據(jù)生產(chǎn)者的權(quán)益就被忽視了。例如在網(wǎng)絡(luò)購物中,互聯(lián)網(wǎng)數(shù)據(jù)的獲得仍然具有 “綁架”性質(zhì),消費(fèi)者只是自愿地在網(wǎng)絡(luò)平臺中購物,但卻不自愿被平臺 “搜集數(shù)據(jù)” “存儲數(shù)據(jù)” “分析數(shù)據(jù)”,作為數(shù)據(jù)的生產(chǎn)者,其數(shù)據(jù)權(quán)力完全被漠視了,消費(fèi)者只能為了能夠進(jìn)行網(wǎng)絡(luò)購物而不得不妥協(xié)。
其三,許多人工智能知識產(chǎn)品是在人的知識產(chǎn)品基礎(chǔ)之上生成的模仿產(chǎn)品,這使得如果將人工智能知識產(chǎn)品歸屬于使用者會構(gòu)成對被模仿人知識產(chǎn)品的侵權(quán)。例如,巴黎索尼計(jì)算機(jī)科學(xué)實(shí)驗(yàn)室使用巴赫的歌曲訓(xùn)練人工智能系統(tǒng),所生成的作品具有鮮明的巴赫風(fēng)格,而且達(dá)到了以假亂真的程度,專業(yè)音樂家都分辨不出人工智能的歌曲并不是巴赫的歌曲。顯然,人工智能學(xué)習(xí)了人類作品的風(fēng)格,所創(chuàng)作的作品很難判定為抄襲,而更像是對先有作品的演繹。因此,人工智能知識產(chǎn)品應(yīng)該視為演繹作品,其權(quán)力歸屬按照演繹作品制度處理[10]。可以看出,人工智能的知識產(chǎn)權(quán)問題非常復(fù)雜,對原知識產(chǎn)權(quán)法律體系的邏輯自洽構(gòu)成極大挑戰(zhàn),需要對人工智能知識產(chǎn)權(quán)進(jìn)行細(xì)分規(guī)定。
本文分析了新一代人工智能和人腦知識生產(chǎn)的比較優(yōu)勢,以及人工智能知識生產(chǎn)所帶來的理解困境、權(quán)力弱化、缺乏約束、數(shù)據(jù)壟斷和產(chǎn)權(quán)不明等問題。人工智能區(qū)別于一般技術(shù)的最大特征就是其能夠自動化地生產(chǎn)知識,知識生產(chǎn)最能夠體現(xiàn)人工智能 “智”的方面,新一代人工智能帶動了數(shù)據(jù)驅(qū)動知識生產(chǎn)的新范式,既提升了知識生產(chǎn)的效率,也帶來了新的問題。無論人們歡欣抑或踟躕,人工智能時代已經(jīng)向我們走來,技術(shù)的井噴式發(fā)展和法律的滯后性造成了目前人工智能 “無法可依”的局面[11]。總體上,現(xiàn)代社會在享受人工智能的技術(shù)紅利之時也需要謹(jǐn)慎人工智能帶來的問題,真正 “用好”人工智能可以從以下三方面著手:
其一,建立人工智能知識產(chǎn)權(quán)的分級共享機(jī)制。人工智能知識生產(chǎn)的三要素是數(shù)據(jù)、算法和硬件,這使得在人工智能知識生產(chǎn)過程中總共有三個利益相關(guān)者,分別為數(shù)據(jù)生產(chǎn)者、程序設(shè)計(jì)者、程序使用者。由于人工智能程序本身并不具有法律主體地位,因此,人工智能知識產(chǎn)權(quán)一定歸屬于某個或某些利益相關(guān)者。人工智能知識生產(chǎn)是多主體的協(xié)同過程,如果把人工智能知識產(chǎn)品的產(chǎn)權(quán)僅歸屬于某一個利益相關(guān)者,就難以發(fā)揮知識產(chǎn)權(quán)激勵創(chuàng)新的作用,可以按照人工智能程序知識生產(chǎn)的自動化程度劃分不同的等級,不同等級下人工智能知識產(chǎn)權(quán)的分配比率不同,通過分級共享機(jī)制讓數(shù)據(jù)生產(chǎn)者、程序設(shè)計(jì)者和程序使用者獲得與貢獻(xiàn)相匹配的產(chǎn)權(quán)比率。
其二,加強(qiáng)人工智能知識生產(chǎn)的可靠性評估和標(biāo)準(zhǔn)建設(shè)。由于人工智能知識生產(chǎn)過程的黑箱化和知識生產(chǎn)結(jié)果的不可理解性,人工智能知識產(chǎn)品的可靠性、歧視性和安全性都存在疑問且難以控制。人工智能標(biāo)準(zhǔn)建設(shè)既可以強(qiáng)化人工智能的可靠性和質(zhì)量,又可以降低人工智能檢測評估的成本。2019年美國國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布了 《人工智能標(biāo)準(zhǔn)制定計(jì)劃》,強(qiáng)調(diào)人工智能的安全風(fēng)險和倫理標(biāo)準(zhǔn)。2020年中國國家標(biāo)準(zhǔn)化管理委員會發(fā)布了 《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,同樣強(qiáng)調(diào)了人工智能的安全和倫理標(biāo)準(zhǔn)。但是,截至目前中美都尚未制定出明確的人工智能標(biāo)準(zhǔn)體系。
其三,加強(qiáng)人工智能的跨學(xué)科合作和領(lǐng)域交叉人才的培養(yǎng)。人工智能知識生產(chǎn)問題的解決有賴于人工智能、法學(xué)等多領(lǐng)域的知識,而人工智能學(xué)家 “法盲”、法學(xué)家 “技術(shù)盲”使得他們必須要跨界合作,更好的方法是培養(yǎng)兼具法學(xué)和人工智能技術(shù)知識的跨學(xué)科專業(yè)人才。目前西南政法大學(xué)等高校已經(jīng)建設(shè)了人工智能法學(xué)院,設(shè)置了人工智能法學(xué)二級學(xué)科,隨著人工智能技術(shù)的不斷擴(kuò)散,人工智能法學(xué)人才的需求將不斷增加,會有更多的高校加強(qiáng)人工智能法學(xué)交叉人才的培養(yǎng)工作,當(dāng)前人工智能的法律困境也許會由新型交叉人才破解。