杜寒雨
瞬間傳輸?shù)姆蓡栴}
有一個關(guān)于未來的笑話,大意是這樣的:在傳送人的過程中,未來的瞬間傳輸設(shè)備不幸發(fā)生了故障——只把人傳過去了,卻把他的衣服留在了原地。不過,謝天謝地,他的內(nèi)褲還在……這個笑話提出了一個有意義的問題:如果在遙遠的未來,我們實現(xiàn)了瞬間轉(zhuǎn)移技術(shù)——能夠輕松地把物品甚至人類本身瞬時從一個地方傳送至另外一個地方,那么,傳輸設(shè)備出現(xiàn)故障后,誰來對此負責(zé)呢?還有,如果一個人因為未來某種機械運轉(zhuǎn)的原因而完全消失在世界上,這又算不算謀殺呢?瞬間傳輸是將人體先分解成原子級的東西,然后再在另一個地點實現(xiàn)組裝——如果未來傳輸機器利用的是這個原理,那人很可能在傳輸過程中消失不見。而且,在傳輸過程中,也會出現(xiàn)私人信息被盜和被復(fù)制的情況。最恐怖的是,人體數(shù)碼解析后的信息會被廣告公司利用,到時候,鋪天蓋地的“私人定制”的減肥產(chǎn)品或者營養(yǎng)產(chǎn)品將會無一例外地向你沖去,私人信息將被最大限度地利用。雖然這些情況不一定全都會發(fā)生,但可以肯定的是,在你走向瞬時轉(zhuǎn)移機之前,簽一大堆的法律合約是必須的。
那么,應(yīng)對這些,法律準(zhǔn)備好了嗎?遺憾的是,迄今為止,無論是立法者還是律師,他們對未來社會的法律條文是怎樣的并不感興趣,他們更感興趣的是已有的法律。
法律需要與時俱進
擔(dān)心會“瞬間轉(zhuǎn)移大法”的機器出故障的想法似乎有點過于前衛(wèi),不過,這其實是不得不考慮的問題。歷史上有很多“想當(dāng)然”的過時法律,盡管它們已經(jīng)不再適用,但仍牽強附會地解決著新生的技術(shù)問題。20世紀(jì)早期,當(dāng)?shù)谝患茱w行器出現(xiàn)的時候,美國法官按照當(dāng)時的法規(guī)解釋說,每家每戶房頂上的領(lǐng)空也隸屬于個人私有財產(chǎn),不可侵犯。這意味著,飛機路過任何人家的屋頂,都會侵權(quán),而依照法律,所有被“侵犯”領(lǐng)空的人都可以去法庭索取賠償金。結(jié)果,到最后法官們不勝其煩,不得不被迫宣布領(lǐng)空屬于“公共領(lǐng)域”。
英國法律也曾鬧過類似的笑話,在摩托車剛問世的時候,曾有法律規(guī)定:在騎摩托車的時候,駕駛?cè)吮仨毠鸵粋€人在車前向他人揮舞旗幟,以發(fā)出警告。
這些不合時宜的法律的出現(xiàn),都是因為立法者對技術(shù)發(fā)展準(zhǔn)備不足的緣故。鑒于過往的教訓(xùn)以及如今技術(shù)更新速度越來越快,我們必須從現(xiàn)在開始,就要為未來新技術(shù)的出現(xiàn)做好法律準(zhǔn)備,才能跟上時代發(fā)展的潮流。想當(dāng)年,F(xiàn)acebook還沒“火”到席卷全球的時候,一些人就提出了Facebook會對隱私權(quán)和數(shù)據(jù)保護法產(chǎn)生影響的觀點,現(xiàn)在,類似的議題已是非常熱門的話題——這些網(wǎng)站的存在的的確確干擾到了人們的日常生活。如何在網(wǎng)絡(luò)時代保障人們的隱私權(quán),已經(jīng)是當(dāng)今法律的一大課題。
現(xiàn)有法律能夠應(yīng)對嗎?
不過,也有一些法律工作者對此不以為然,他們認(rèn)為現(xiàn)有的法律已經(jīng)足夠應(yīng)對技術(shù)社會了。比如,在20世紀(jì)90年代,一位美國法官曾嘲笑當(dāng)時剛剛有點眉目的“網(wǎng)絡(luò)法”,他說那些討論網(wǎng)絡(luò)法的人與那些在農(nóng)業(yè)時代將一生都貢獻給有關(guān)馬匹法律的人沒什么區(qū)別——那時,馬匹對經(jīng)濟發(fā)展越來越重要,引起了一些人的廣泛關(guān)注。按照這位法官的意思,現(xiàn)有的實施于其他領(lǐng)域的法律足以應(yīng)付可能發(fā)生的情況。比方說,如果馬被偷了,那么就是偷竊罪;而如果被騙買到了病馬,合同法或者財產(chǎn)法有關(guān)條例將可以對這些情況進行處理,等等。
網(wǎng)絡(luò)社會也是如此,我們只要按照傳統(tǒng)的法律對網(wǎng)絡(luò)行為進行規(guī)范就足夠了。未來的機器人社會也是如此,根本不用給機器人設(shè)立什么全新的法律條文??傊瑹o論科技怎么發(fā)展,法律不需要大動干戈地改進。例如,像處理除草機器人失控對鄰居造成傷害的事件,參照寵物咬人事件就好了。而對于一輛全自動小汽車撞傷了行人,應(yīng)用與馬匹傷人的相關(guān)法律就可以了——全自動汽車與拉車的馬匹一樣,同樣是自主行為,既然馬匹傷人的行為有許許多多先例可循,那么有自主意識的機器撞人也可以憑此來解決了。這還真是件挺具有諷刺性的事情,如果擁護頒布馬匹新法的上世紀(jì)人民聽到這個,肯定特別興奮,至少未來的這一刻證明了馬匹相關(guān)法律條文的設(shè)立并沒有那么滑稽可笑。
技術(shù)社會的全新法律問題
這些說法看上去有點道理,但卻忽略了機器人的一個全新特點——它們會說話,未來高級的機器人能像人類一樣比較自如地運用語言,看到來自22世紀(jì)的動畫人物“哆啦A夢”( 哆啦A夢是著名的日本動漫形象,生活在22世紀(jì),又稱為機器貓、小叮當(dāng)?shù)龋┝税?,那便是未來世界中的“理想樣本”。顯然,“哆啦A夢”發(fā)飆傷了鄰居與一只瘋狗傷了鄰居是不能劃等號的。而這又引出了另一個有趣的問題:會說話的機器人會犯誹謗罪嗎?很有可能。比方說,機器人服務(wù)員在餐廳讀錯用餐者的名字,而且還做了十分不恰當(dāng)?shù)慕忉專瑥亩層貌驼叱闪巳蛷d的笑柄——這可是一個再平常不過的事件了。所以,為機器人頒布一項特殊的法律還是有必要的——你不會在以前的判例中找到任何可以模仿的先例。
實際上,不僅未來的機器人需要一部新法,有關(guān)計算機的法律也要“大換血”。現(xiàn)在,一方面,計算機算法在不斷精進,而另一方面,它又帶來了不少麻煩,像Google公司已深受其害。2011年,意大利某位先生在利用Google Instant搜索他名字的時候,自動建議中出現(xiàn)了欺詐和騙子等字樣——這是由算法從原有數(shù)據(jù)庫基礎(chǔ)上自動生成的,于是,他將Google告上了法庭,結(jié)果贏得了官司?,F(xiàn)在,計算機帶來的糾紛已經(jīng)很多,而未來可能會更多。因此,為越來越深入人類生活的機器社會立法,應(yīng)該盡早被提上議事日程。