為什么阿西莫夫的機器人三定律救不了我們

>>>  技術話題—商業文明的嶄新時代  >>> 簡體     傳統

  英文原文:Why Asimov's Three Laws Of Robotics Can't Protect Us

  70 年前,阿西莫夫提出他著名的機器人三定律,來保證機器人會友善待人。雖然最早提出時這只是個文學手法,但是有些人認為這些定律是現成的方案,能挽救我們免于機器末日。那么,阿西莫夫的安保措施成功經歷了時間的考驗嗎?專家的回答是,沒有。

isaacasimov.jpg
伊薩克·阿西莫夫(1920-1992),20 世紀最有影響力的科幻作家之一。圖片來源:marciokenobi.files.wordpress.com

  1942 年,阿西莫夫在短篇小說"Runaround"(《環舞》)中首次提出了三定律:

一機器人不得傷害人類,或因不作為使人類受到傷害。

二除非違背第一定律,機器人必須服從人類的命令。

三除非違背第一及第二定律,機器人必須保護自己。

  但后來,阿西莫夫加入了一條新定律:第零定律。

零機器人不得傷害人類整體,或因不作為使人類整體受到傷害。

  阿西莫夫的科幻設定里,機器人三定律是植入到近乎所有機器人軟件底層里,不可修改不可忽視的規定,絕不僅僅是“建議”或者“規章”。但是顯然這不是一個物理定律,所以現實中的機器人并不遵守——至少暫時如此。

RUNAROUND-02.JPG
在《環舞》里,負責水星開礦任務的機器人在第二和第三定律的沖突中陷入“焦慮”,開始不停地繞圈子。圖片來源:raydillon.blogspot.com

  正如阿西莫夫許多小說里顯示的,這三條定律的缺陷、漏洞和模糊之處不可避免會導致一些奇怪的機器人行為。比方說,這三條定律連何為“人”、何為“機器人”都沒有良好定義。而且,如果機器人獲取的信息不完整,它們完全可以無意中打破定律。更何況,你要怎么阻止一個智力超群的機器人自己把定律改掉呢?

  因此,很多人都認為這只是單純的推動劇情用的寫作手法而已。但是,1981 年,阿西莫夫本人在“Compute!”里說:

  “……有人問,我是不是覺得我的三定律真的可以用來規范機器人的行為——等到機器人的靈活自主程度足以在不同的行為方式中選擇一種的時候。我的答案是,‘是的,三定律是理性人類對待機器人(或者任何別的東西)的唯一方式’。”

  好吧,三十年過去了,我們的機器人——準確地說,是操縱機器人的人工智能——真的在逼近阿西莫夫所說的那一天。事實上,人工智能恐怕再過一段時間就要抵達技術奇點,發生爆炸式增長,徹底把人類智能甩在后面。

  而如果這樣一個超級智能的程序編得不夠好,或者它不在乎人類的需求,那么對我們而言就是徹頭徹尾的災難。我們必須保證它是安全的。

  那么,阿西莫夫三定律可以幫我們嗎?我們采訪了兩位人工智能理論研究者:本·格策爾(Ben Goertzel ),艾迪亞金融預測公司首席科學家;路易·海爾姆(Louie Helm),機器智能研究所代理主任。他們的觀點是,阿西莫夫三定律完全不能勝任——而如果我們想保證超級智能的安全,我們需要一些全然不同的東西。

  阿西莫夫的未來

  “我認為阿西莫夫預想的機器人過不了多久就會實現”,格策爾說,“但是在他大部分小說里,看起來人類級別的機器人好像就是機器人學和 AI 工程的頂峰了。事實看起來并非如此。在抵達阿西莫夫式類人機器人之后,很快超人 AI 也會成為可能。”

  典型的阿西莫夫未來里,大部分生活都如常——只不過多了些人形智能機器人走來走去而已。“但這種未來不太可能實現——或者就算是它實現了,也只會存在很短的時間,”他說。

I-Robot.jpg
電影《我,機器人》就是根據阿西莫夫的同名小說集改編的,機器人三定律是其核心。圖片來源:popculture-y.com

  在海爾姆看來,機器人根本無關緊要。

  “我認為對人類來說最主要的問題,不是一大群半智能人形機器人所需的道德規范,而是高階人工智能最終會出現(不管有沒有軀體),其功能遠遠超過人類水平,”海爾姆說。“人類早晚必須要跨過超級智能這個坎。這也是為何開發安保措施如此重要。在我看來,機器人、仿生人、模擬大腦什么的都無關緊要,我們最多和它們相處一二十年,之后就要面對真正的大問題——為超級智能開發倫理道德。”

  好的開端?

  鑒于阿西莫夫三定律是第一個真正試圖解決人工智能行為問題的方案,那么就算是超級人工智能,它能不能也起到一定效果——或者至少有所啟迪呢?

  “老實說,我真沒從機器人三定律里獲得什么靈感,”海爾姆說。“機器倫理學的共識是,它無法成為機器倫理的合適基礎。”三定律的確廣為人知,但現實中無論是 AI 安全研究者還是機器倫理學家,都沒有真的使用它作為指導方案。

  “原因之一是這套倫理學——我們稱之為‘義務倫理學’(deontology)——作為倫理基礎是行不通的。依然有幾個哲學家試圖修復義務倫理學體系,但同一批人常常也熱衷于‘智能設計’或者‘神命論’之類的東西,”海爾姆說,“沒幾個人嚴肅對待他們。”

508316964_tp_diag01_answer_2.gif
按照義務倫理學,一項行為合不合道德,只決定于行為本身是否符合幾條事先確定的規范,和行為的結果、動機等等完全無關。圖片來源:www.sodahead.com

  他總結了三定律的幾處缺陷:

  • 內在的對抗性
  • 基于有缺陷的倫理框架(義務倫理)
  • 不被研究者接受
  • 哪怕在科幻文學里也會出問題

  格策爾表示贊同。“設立三定律的目的就是以有趣的方式出問題,這也正是為何圍繞它們的小說如此有趣,”他說,“所以三定律只在這個意義上有指導作用:它告訴我們,用具體的定律來規范道德倫理是必定行不通的。”三定律在現實中完全無法運作,因為其中的術語太模糊,受制于主管解釋。

  歧視機器人?

  三定律的另一個側面是顯而易見的基質沙文主義——按照定律,就因為機器人的軀體是硅做的,不是血肉之軀,他們就必須遵從人類的需求,不管他們有多么強大的能力也沒用。

  “百分之百,”格策爾說,“阿西莫夫的未來社會是光天化日的基質沙文主義,人類擁有的權利比人形機器人的權利更多。三定律的目的就是維持這種社會秩序。”

ARALE-Android-Anatomy.jpg
但是,如果真的出現了和人類一樣聰明一樣可愛一樣有能力自主決策的機器人,我們還應該因為他們是“人造”的而不給他們平等權利嗎?圖片來源:www.ym-graphix.com

  海爾姆的視角略有不同,他認為,如果我們真的身處這樣的場景,那我們已經走得太遠了。

  “我認為設計有意識、有自我覺知的人工智能或機器人,本身就是很不明智的,”海爾姆說,“而且,雖然那些電影小說里 AI 研究者常常‘不小心’就搞出了有意識的人工智能,我認為這在現實中不可能發生。人們不可能純靠好運碰上意識,需要大量的努力和知識才行。而且大部分 AI 研究者都是遵循倫理的人,他們會避免創造出哲學家所謂‘有道德意義的存在體’。畢竟,他們完全可以創造出不具有內在道德問題的高階思考機器嘛。”

  因此,關于設計不對稱定律、管理機器人價值的問題,海爾姆并不太在意。他認為未來的 AI 研究者只需少許道德約束即可。

  “話雖如此,我認為人類也是原子組成的,所以理論上也可以人工合成一種生命形態或者機器人,讓它擁有道德意義,”海爾姆說,“我希望沒人會真的這么做,大部分人應該也不會做。但恐怕不可避免地,總會有些好炫耀的傻瓜為了追名逐利而第一個做些什么事情——任何事情——哪怕是如此不道德、如此愚蠢的事情。”

  三定律 2.0?

  三定律有顯而易見的缺陷,能否用修正或者補丁之類的挽救它呢?而且確實有很多科幻作家這么嘗試過,多年來有不少修正版本。

  “不,”海爾姆說,“三定律不會有補丁。不存在能挽救它的辦法。”

  除了太不自洽、無法實現之外,海爾姆說,三定律本質上是對抗性的。

  “我更偏愛的機器倫理路線是更合作性的、更自我一致的,而且更多使用間接規范性,這樣就算系統一開始誤解了或者編錯了倫理規范,也能恢復過來,抵達一套合理的倫理準則。”海爾姆說。

  格策爾呼應了海爾姆的觀點。

  “定義一套倫理原則、把它作為機器倫理的核心路線,恐怕毫無希望——如果我們討論的是靈活的人工通用智能(AGI)的話,”他說。“如果 AGI 擁有直覺、靈活、適應性的倫理觀,那這些倫理原則對它來說可以是有用的基本指南,幫助它使用它自己的倫理直覺。但這樣的話,這些原則就不是它的核心了,只是一個側面。人類就是這樣的——我們學會的倫理規范是有用的,但用法只是指引我們的倫理本能和直覺而已。”

  如何建造安全 AI?

  既然定律路線行不通,那么應該怎樣保證 AI 不會毀滅人類呢?

  “AGI 研究者里,很少有人相信能造出一個百分之百安全毫無隱憂的系統,”格策爾說,”但這對于大部分人來說并非什么困擾,因為說到底,人生中也沒什么東西是百分之百的。”

  格策爾相信,一旦我們造出了早期 AGI 系統,或者至少是比我們現有東西強大得多的 AGI 原型機,我們就可以通過研究和實驗獲得多得多的 AGI 倫理學信息。

  “希望這種方式下我們能建立良好的 AGI 倫理學,讓我們能更清晰地理解這個話題,”他說,“但目前為止,研究 AGI 倫理理論還是很困難的,因為我們既沒有很好的倫理理論,也沒有很好的 AGI 理論。”

  他又說:“對于那些看《終結者》看多了的人,這聽起來估計有些嚇人——我們試圖建立 AGI,但卻認為只有在我們試驗過原始 AGI 系統之后才能得到相關的堅實理論。然而,絕大部分激進的進展都是這么發生的。”

terminator-exoskeleton_1386347149.jpg
電影《終結者》可能是最著名的機器人末日場景之一:高度發達的機器人和人類開戰,毀滅了大部分人類文明。圖片來源:moviepilot.com

  “當一群聰明的原始人發明語言的時候,他們是等到一套成熟的語言形式理論出現、用它預測了語言引入社會后的未來影響,然后才動手的嗎?”

  這一點上兩位受訪者又取得了一致。海爾姆所在的機器智能研究所花了很長時間考慮這件事情——簡短的答案是,這還不是個工程學問題。需要更多研究。

  “這么說是什么意思?我在機器智能研究所的同事盧克·穆豪森總結得很好。他說,問題總是從哲學領域移到數學領域再到工程領域,”海爾姆說,“哲學提出有意義的問題,但這些問題常常太不精確,沒人能知道一個新答案是否意味著我們又進了一步。但如果我們能把重要的哲學問題——智能,本體,價值——復述成足夠精確的數學,要么對要么錯;接下來就可以建立模型,在此基礎上成功擴展,總有一天能夠用作真實世界的工程目的。”

  海爾姆說,這是科學和哲學里的一個真正難題,但是進步依然是可能的:“我懷疑哲學能不能只靠自己解決它,畢竟過去三千年里它似乎沒有什么特別顯著的進展。但是我們也不能憑現有這點粗淺的了解就去編程。我們還需要大量的理論研究。”

  題圖來源:infinitywave.deviantart.com


果殼網 2014-07-02 15:23:39

[新一篇] 微軟研發3D網絡瀏覽器初曝光

[舊一篇] 戳中淚點:高考離校前老師說的最后一句話
回頂部
寫評論


評論集


暫無評論。

稱謂:

内容:

驗證:


返回列表