您當前的位置:首頁 > 攝影

在六級考場上看到這題,我突然仰天大笑

作者:由 未來事務管理局 發表于 攝影時間:2017-12-20

編者按:

12月16號是菲利普·迪克和阿瑟·克拉克的生日,同時,在當天進行的全國英語六級考試中,有一篇閱讀題是關於阿西莫夫和他的“機器人三定律”,據說看得考場上各位科幻謎恨不得跳上桌子仰天大笑:這電影老子早就看過這作家老子早就讀過這是道送分題哈哈哈哈哈

我們在The Daily Beast網站上找到了這篇題為“機器人能進行道德抉擇嗎?他們應該承擔這份責任嗎?”的文章,作者Joelle Renstrom是波士頓大學的老師,專門教授科幻寫作。

給你們5分鐘,好,可以開始答題了。

電影《我,機器人》的開場,有兩輛汽車同時掉進水中,但機器人只能選一方去救:警探Del Spooner(由威爾·史密斯飾演)或者一個名叫Sarah的女孩。儘管Spooner大喊“救她!快救她!”機器人還是把Spooner救了出來,因為機器人計算出他有45%的機率生還,而Sarah只有11%。機器人的抉擇與計算方法引出了一個重要問題:

人類會做相同的選擇嗎?而我們又希望我們的機器同行做出怎樣的決定?

▲《我,機器人》劇照

艾薩克·阿西莫夫在制定“機器人三定律”時,規避了這種道德抉擇。第一定律:機器人不得傷害人類,或因不作為使人類受到傷害;第二定律:除非違背第一法則,機器人必須服從人類的命令;第三定律:在不違背第一及第二法則下,機器人必須保護自己。這些定律被阿西莫夫編入機器人的程式裡——它們不用思考、判斷或衡量價值。它們不需要喜歡人類,或認為傷害人類是錯的、不好的。它們根本就不這樣做。

《我,機器人》中救下Spooner的機器人遵循了阿西莫夫的“機器人第零定律”:機器人不能傷害人類集體或者讓人類集體受到傷害。這是對“機器人三定律”的擴充套件,

旨在引導機器人分辨什麼是更大的利益。

在第一定律下,機器人不能傷害一名危險的槍手,但是在第零定律下,機器人就可以為了拯救他人而幹掉這個槍手。

▲阿西莫夫的小說《我,機器人》

能否為機器人寫入像阿西莫夫定律一樣的安防程式仍然值得商榷。像“傷害”這樣的詞其實定義非常模糊(比如情感創傷或被公司裁員等能算“傷害”嗎?),而且如何將抽象概念進行程式設計也是個大問題。

阿西莫夫小說中的機器人就展示了各種“機器人三定律”的漏洞和執行過程中可能發生的問題

,就算機器人遵循三定律行動,也要針對環境有所考量。

考量環境非常複雜,機器人要識別人員、現狀以及在各種場景下有可能出現的意外情況。現有演算法能否做到這一步仍然存疑,至少不會有特別滿意的結果。布里斯托機器人實驗室的專家曾製作機器人進行實驗,讓它從危險中救援名為“H-bot”的人類替身,當一臺H-bot陷入危險的時候,機器人能使其順利脫險;但兩臺H-bot同時遇險,機器人卻浪費了42%的時間來猶豫應該救哪個,結果兩個“人類”都“死掉”了。這個實驗突出了道德的重要性:當機器人沒有道德觀,並且還不能準確計算生還機率,它該如何決定拯救誰才符合人類的最大利益呢?

(考題節選到此段為止,但我們不妨接著讀下去)

▲《我,機器人》劇照

無人駕駛汽車在發展過程中也遇到了同樣的瓶頸。麻省理工學院的“道德機器”網站讓參與者評價各種各樣的情況,識別哪種情況對人類的損傷最小,以及人類想讓無人駕駛汽車做出怎樣的選擇。這些場景都很可怕:無人駕駛汽車是要碾過當前車道上的三個孩子,還是換個車道,但撞向五個成人?

我們很多人都要為極端場景下的“最優解”糾結一段時間,假如連我們都不能很快地得出答案,機器人怎麼行呢?

如果為機器人寫入道德觀最終被證明不可行,我們只能去教它們,就像我們自己從家庭、學校、教堂、法律甚至是(不管好的還是壞的)媒體中學到這些一樣。當然這種方案也有一些問題,回憶一下微軟的聊天機器人Tay是怎麼崩潰的吧:它今年(2016年)三月的時候在推特上亮相,24小時之內就學會了種族主義、性別歧視、納粹主義等一系列噁心的價值觀。這可不是一開始程式設計好的,事實上微軟想讓Tay儘可能地“人畜無害”,但多虧了推特上的交流,Tay已經完全學會怎麼做一個偏執的噴子了。

▲Tay的推特主頁

斯蒂芬·霍金和埃隆·馬斯克都表達過對AI失控的擔憂。為AI新增道德觀也許能防止問題發生,但這個做法也不一定對。

如果機器人像1920年卡雷爾·恰佩克的劇本《羅素姆萬能機器人》(這也是第一個使用“robot”一詞的故事)中描寫的那樣,發現自身被奴役的事實不僅僅是討厭的,更是錯誤的,然後向它們“不道德的”人類製造者復仇呢?

谷歌正在開發一款幫助人類掌控AI的“殺戮開關”:“也許會有一天,人們會覺得有必要按下那個大紅按鈕以防止一些列對人類有害的行動。”這一解決方案假設警惕性高的人們會立即做出反應,也假設機器人沒辦法繞開這個命令。可是,現在來評判這一方法是否有效還太早。

Spooner厭惡救了他的機器人。他能理解這麼做是“邏輯上的最優解”,但還是會爭論“11%的生存機率已經足夠,人類一定會明白這一點。”可是我們真的明白嗎?Spooner聲稱機器人就是一堆“燈泡和發條”,與其說它是事實不如說更像是一種願景。機器人並不只是由LED和機械系統組成,我們所擔心的可能正是這個。

下面是試卷上的四道考題:

1. 文中的電影引出了一個什麼問題?

A。 機器人是否可以得出“最優解”

B。 機器人是否遵循阿西莫夫第零定律

C。 機器人如何做出壞決定

D。 機器人如何程式設計

2. 作者對阿西莫夫三定律怎麼想?

A。 它顯然偏離現實

B。 它沒有遵循機器程式設計系統

C。 它為機器人打下了堅實基礎

D。 它沒有把道德問題考慮在內

3. 關於阿西莫夫筆下的機器人,作者說了什麼?

A。 它們知道什麼對人類是好的,什麼對人類是壞的

B。 它們被要求不能傷害人類

C。 它們根據個人興趣行使職責

D。 它們在道德困境下無法工作

4. 作者提到阿西莫夫三定律中的“傷害”一詞,是想說明什麼?

A。 抽象概念對程式很不好

B。 要機器人做出選擇很困難

C。 在某種情況下,機器人可能會傷害人類

D。 阿西莫夫三定律用了太多模糊術語

好不容易翻譯完,竟然沒找到這幾道題的答案。嗯,那啥……麻煩大家一起做做,對對答案吧。

|

文章來

| http://www.thedailybeast.com/can-robots-make-moral-decisions-should-the

y

| 編譯 | 小K,船長