By 王小明 |  2017/6/20

「一部失控的火車正飛速前進,前方的軌道上綁著5個無辜的人,這時候你可以選擇拉下一個拉桿,將火車改分岔到另一條軌道上,但那條軌道同樣綁著一個無辜的人;你會怎麼選擇?是什麼也不做,看著火車輾過那五人,還是拉下拉桿?」

上面是一個倫理學的經典問題「電車難題」,但在無人車即將成為未來交通工具的今日,卻成了必須被思考的道德難題,而且在不遠的未來就必須做出選擇:「當由AI駕駛的無人車遇到無法避免的交通事故時,AI應該要怎麼面對?(保護車主或是路人?)」

針對這個未來勢必會遇見的道德問題,麻省理工學院MIT推出了一份名為「道德機器」的線上問卷,內含13組狀況不同的「電車難題」,譬如在車上乘客與路人間做選擇,又譬如面對老弱、青壯、男女、身份地位、動物、是否遵守交通規則…不同的艱難狀況,這些題目沒有「無傷亡」的完美選項,使用者需要在兩者間作出殘酷的犧牲選擇。測驗完畢後,使用者可以透過統計結果了解自己的道德選擇,也可以了解其他人對自駕車的看法。

下面是這個測驗的影片介紹:

▲在2選一的抉擇中,這份問卷納入了年齡性別、身份階級、動物與交通規則等考量,考驗著受測者的道德觀念。

▲透過問卷結果,使用者可以看到自己的抉擇與其他人的差異。

這份問卷內容雖然殘忍,卻是在發展AI過程中必須要面對的問題,事實上,自動駕駛的車禍死亡的案例已經發生在Tesla 的「自動輔助駕駛」車輛上,Google 的自動駕駛也曾有類似意外。

雖然目前自動駕駛車輛仍將這類的道德判斷交由人類操控,但或許在不遠的未來,AI就必須倚靠一套單一的道德價值做出判斷,屆時你能提出自己信仰的一套價值嗎?

【道德機器】測驗:http://moralmachine.mit.edu/hl/zh

本文章由聚知堂編輯撰寫,若內容有侵害您的版權,或對內容有其他意見,歡迎來信告知。
聯絡我們:info@tkngtc.com