佚名
科學家們擔心未來會出現(xiàn)對大腦植入的惡意控制。如果腦機接口出錯,誰應該負責?
生物技術和腦機接口研究的進步,可能會讓我們的大腦和電腦連接在一起。但是,我們?nèi)绾畏乐构粽咔秩脒@個設備,傷害自己或他人呢?
雖然腦機接口研究目前被用來幫助與癱瘓的人交流,但科學家們擔心身體健全的人會用它來增強自己的能力。他們在《科學》雜志上發(fā)表了一篇論文,題為“幫助、希望和炒作:神經(jīng)假肢的倫理維度”,呼吁制定新的指導方針,以確保大腦和機器的相互作用是安全的。該論文的作者同時身為日內(nèi)瓦中心的主任,他表示:“我們不想夸大風險,也不想給那些可能從神經(jīng)技術中獲益的人制造虛假的希望。我們的目標是,確保適當?shù)牧⒎ㄅc這個快速發(fā)展的領域保持同步?!?/p>
隨著自動駕駛汽車等人工智能技術的發(fā)展,他們圍繞著責任、隱私和安全因素對身體質(zhì)量指數(shù)和半自動機器人的未來提出了疑問。他們認為,有必要對半自動機器人設置控制身體質(zhì)量指數(shù)的關閉開關。如果一個半自動機器人沒有可靠的控制或覆蓋機制,人們用它來接孩子,而不是進行其他風險較低的活動的話,意外可能會發(fā)生。人們擔心大腦輸出數(shù)據(jù)的安全,這些數(shù)據(jù)應該受到加密保護。人們也會擔心有人會對大腦植入物進行惡意操控。
對擁有權力或?qū)氋F知識產(chǎn)權的人來說,面臨讀腦攻擊的風險將會更大。牛津大學納菲爾德學院的博士生勞里·皮羅夫特在最近發(fā)表的一篇論文中,提出了對腦部植入物的擔憂。研究發(fā)現(xiàn),攻擊者可能會將植入電池植入大腦,或者用它們來誘發(fā)疼痛,破壞情緒,造成組織損傷。懷斯中心研究員尼爾斯·伯鮑默教授指出:“嚴格的數(shù)據(jù)保護必須適用于所有相關人員,這包括保護在問題中提出的個人信息以及神經(jīng)數(shù)據(jù),以確保設備正常運行?!?