2019年1月30日 星期三

MIT「道德機器」計劃

紐約客(The New Yorker這篇文章介紹MIT的「道德機器」計劃起源,以及這個計畫出版的論文有哪些值得討論的結果。
  根據MIT「道德機器」的統計,大眾並不太在乎「作為」(action)與「不做為」(inaction)之間的差異。但是這兩種情況的差異在哲學與法律上十分重要。(我所參與的人工智慧倫理學計劃收到的數據,也出現類似的情況)
  根據「道德機器」出版的論文,在超過四千萬筆決策中,大致上可以劃分為三個大集群(clusters):西方集群(包含北美與西歐)、東方集群(包含東亞與伊斯蘭國家)與南方集群(包含拉丁美洲國家與部分法語國家)。
  東方集群國家比起西方與南方,更傾向於讓小孩死亡,讓長者活下來。南方集群國家更傾向於讓肥胖者死亡,讓運動類型者活下來。在經濟分配較為不平等的國家傾向於讓商人活下來,讓流浪漢死亡。在高度重視法律的國家(如日本與德國)傾向於殺死違規者。
  儘管文化會影響人們的決策,但總體而言,有一些傾向是跨國家與跨文化的,這樣的總體傾向可以劃分為三類:傾向於拯救人類的生命(比起動物的生命)、傾向於拯救更多的生命、傾向於拯救年輕的生命(雖然東方例外)。
  另外,這篇文章也提到,在美國使用自動武器必須遵守的指導原則中,有一項原則是:不能在AI中內建「殺人決策」。換言之,當要使用自動武器殺人時,決策必須是人類下達的,不可以是AI下達。但是在自駕車的討論中,目前只有德國提出了類似的指導原則,這點或許跟德國過去的歷史有關,德國對於「讓誰死亡」這樣的決策特別敏感。
  雖然從數據上,我們可以看到參與者的某些傾向依賴在他們所處的文化上。然而,這是否意味著我們應該讓當地政府自行決定自駕車的AI應該如何選擇?德國前法官Di Fabio擔心這樣做可能會有很不好的結果。比方說,在未來,可能會有某些極權國家要求自駕車配合他們的社會評價制度(social-credit system),優先殺死社會評價較低的人。
  然而,我們似乎又不可能完全無視不同地區人民的行為傾向差異,強迫讓大家都使用同一套自駕車評價系統。因此,這兩種思路要如何權衡,會是一個非常困難的問題。
  最後,這篇文章用一句很有意思的話收尾:

「希望我們最後都能夠被演算法評價為值得活下來的那一方。」


「道德機器」網站:

「人工智慧倫理學」網站:
https://aiethics.ml/