鄧家豐 河南省滑縣第一高級中學(xué)
引言:人工智能帶來的法律敏感問題不可避免,也不可忽視,應(yīng)該加快建立起適合人工智能時代的法律制度,尤其高中階段對一個人的價值觀養(yǎng)成極為重要,高中生也應(yīng)對這些有所了解,形成正確的價值觀,可見法律制度的完善即便是從高中生的立場也有很大的實際價值。
人工智能時代的來臨給現(xiàn)行的法律帶來了巨大的挑戰(zhàn),這里主要介紹幾個于高中生而言比較有體會的問題,包括智能系統(tǒng)的侵權(quán)法、著作權(quán)以及隱私、人格權(quán),下面即一一進行分析:
(一)侵權(quán)法問題。智能系統(tǒng)致使人受到損害的侵權(quán)法問題是目前較為常見的有關(guān)人工智能的法律問題,我們不能否認人工智能帶來的便利性與高效性,但同時智能系統(tǒng)致人損害也不可避免的存在著,總的來說這種侵權(quán)法問題可分成兩類:由于人的非法控制、不當(dāng)使用導(dǎo)致的損害以及由于人工智能產(chǎn)品本身的缺陷導(dǎo)致的損害。而當(dāng)損害發(fā)生時,到底是那種因素引起的?要辨別這種損害生成的原因,就要通過對智能產(chǎn)品過錯行為的剖析,必須明確成因才能進行接下來的責(zé)任認定,而這一過程的實施就有很大的難度。另外,目前我國的法律對于這類問題有兩種責(zé)任認定方式,一種對應(yīng)上述第一類成因,也就是人的錯誤、非法使用造成損害的責(zé)任認定。另一種則是技術(shù)中立原則上的替代責(zé)任,具體來說就是,人工智能產(chǎn)品本身沒有缺陷問題則滿足技術(shù)中立原則的標準,但若發(fā)生因產(chǎn)品所有人、管理人等的不良介導(dǎo)下的侵權(quán)行為,不屬于技術(shù)中立原則范疇,應(yīng)承擔(dān)侵權(quán)責(zé)任。
(二)著作權(quán)問題。人工智能開發(fā)的初衷就是通過對機器利用,輔助、參與人們的工作,其中自然也包括了文學(xué)、科學(xué)等方面的創(chuàng)作,在人工智能的不斷發(fā)展下,人工智能產(chǎn)品已經(jīng)可以生成作品,而對于這些人工智能創(chuàng)作的作品的著作權(quán)問題不禁引人思考,這些作品能不能享有權(quán)利?如果能享有權(quán)利,那么著作權(quán)是由誰享受?機器?還是機器的發(fā)明者或使用者?關(guān)于這些思考目前我國法律的規(guī)定是,智能機器人創(chuàng)造的作品同樣享有著作權(quán),是受著作權(quán)法保護的。而由于機器人本身并不能行使著作權(quán)權(quán)利,所以作品享有著作權(quán),但該著作權(quán)為智能機器的創(chuàng)造者或機器所有人享有,法律對這一著作權(quán)的保護通過保護智能機器作品來實現(xiàn)。
(三)隱私、人格權(quán)問題。人工智能時代下隱私、人格權(quán)的問題也是現(xiàn)代社會人民群眾面臨最多的問題,即使是身為高中生的我們也常遇到這種問題,身處于人工智能時代、在網(wǎng)絡(luò)科技不斷發(fā)展之下、在人工智能、大數(shù)據(jù)以及互聯(lián)網(wǎng)科技交互運用之下,我們的隱私問題越發(fā)突出,這種形勢對我國隱私、人格權(quán)相關(guān)法律也帶來了一定的挑戰(zhàn),同時我們自身在利用人工智能時也要重視對隱私權(quán)的保護,從自己做起加強隱私保護意識,智能機器對隱私的收集、挖掘是個人隱私泄露的重要途徑,因此作為人工智能使用者應(yīng)該對人工智能產(chǎn)品加以防備[1]。另外,還有企業(yè)方面對用戶隱私的保護也要加強,同時我國法律也應(yīng)加強立法約束人工智能下的隱私、人權(quán)問題,需要更進一步明確智能時代下人民隱私、人格權(quán)的內(nèi)容、范圍、屬性等。
對于人工智能時代帶來的法律與制度上的挑戰(zhàn),在此基于價值目標、社會規(guī)范調(diào)控體系、風(fēng)險控制機制三個角度來分析人工智能時代下具體的制度安排以及法律規(guī)制:
(一)價值目標層面。對于人工智能時代下價值目標的深入完善,應(yīng)該貫徹安全為核心,樹立安全價值、形成安全價值觀,安全為核心的價值目標能夠有效保障社會秩序的穩(wěn)定運行。這也是一直以來有關(guān)部門的努力方向,具體來說安全價值貫徹落實到人工智能環(huán)境下的制度規(guī)劃主要應(yīng)注意以下幾個方面:第一是國家戰(zhàn)略部署上,加強對人工智能有關(guān)技術(shù)發(fā)展的戰(zhàn)略規(guī)劃[1];第二,盡快出臺有關(guān)法律推進并監(jiān)管人工智能行業(yè),明確行業(yè)準則,制定安全標準,為人工智能的發(fā)展創(chuàng)設(shè)一個規(guī)范、有序、安全的環(huán)境并同時能起到監(jiān)督的作用;另外,人工智能知識產(chǎn)權(quán)有關(guān)機制也應(yīng)該進一步完善。
(二)社會規(guī)范調(diào)控體系。人工智能時代下要做好制度安排以及法律規(guī)制還要加強社會規(guī)范調(diào)控體系的建設(shè),堅持以倫理為先導(dǎo)的調(diào)控體系,其實倫理指導(dǎo)的調(diào)控體系的運用在很多發(fā)達國家已經(jīng)相當(dāng)成熟,運用倫理進行規(guī)范的優(yōu)勢在于能夠起到先導(dǎo)作用,其起到的調(diào)整作用區(qū)別于法律的約束,是另一種獨特的作用方式[3]。比如,對人工智能產(chǎn)品進行道德預(yù)設(shè),設(shè)置好有關(guān)道德標準等方式來實行倫理指導(dǎo),這些倫理規(guī)范、調(diào)控也能通過進一步的法制建設(shè)實現(xiàn)道德的法律化。
(三)風(fēng)險控制機制。風(fēng)險控制機制的作用不言而喻,當(dāng)下人工智能帶來的隱患、風(fēng)險急需得到控制,規(guī)避風(fēng)險,建立起技術(shù)、法律雙控的風(fēng)險控制機制。在法律控制的基礎(chǔ)下輔之以技術(shù)控制,這樣能夠?qū)θ斯ぶ悄墚a(chǎn)品、技術(shù)的研發(fā)、投入市場等進行合理范圍的限制,同時形成懲戒機制,對于利用人工智能做出不法行為的人或組織要嚴肅處理。可以建立起從人工智能的研發(fā)到應(yīng)用、流入市場的全過程的責(zé)任制度,明細責(zé)任劃分。另外,還應(yīng)實行技術(shù)民主原則,一定程度公開人工智能技術(shù)相關(guān)信息,并且人民群眾有權(quán)參與到這些技術(shù)決策中。
結(jié)束語:總而言之,人工智能是時代發(fā)展的大趨勢,在這樣的背景下應(yīng)當(dāng)加強法律、制度的建設(shè),也相信通過價值目標、社會規(guī)范調(diào)控體系以及風(fēng)險控制機制三個方面的調(diào)整,在安全為核心的價值目標引導(dǎo)下、在以倫理規(guī)范的調(diào)控體系牽引下、在技術(shù)與法律介導(dǎo)的風(fēng)險控制機制的輔助下,能夠有效幫助健全有關(guān)法律制度,解決當(dāng)前人工智能帶來的法律盲點。