如何將人類價值觀融入人工智能?
隨著人工智能(AI)變得愈發(fā)強大,且愈發(fā)深入地融入我們的生活,如何使用和部署 AI 也就變得愈加重要。對于自動駕駛汽車、在線內(nèi)容推薦系統(tǒng)和社交機器人等應(yīng)用程序而言,如何使 AI 系統(tǒng)的道德觀和價值觀與人類保持一致已經(jīng)成為一個不能回避的問題。對于更為強大的 AI,它們將在未來承擔越來越重要的經(jīng)濟和社會功能,上述矛盾也就更加突出。具體來說,我們需要思考,究竟什么樣的價值觀可以指導(dǎo) AI?這些價值觀屬于誰?又是如何被遴選出來的?
上述問題闡明了 AI 原則——推動 AI 做出大大小小的決策的基本價值觀——所扮演的角色。對人類而言,原則有助于塑造我們的生活方式以及是非觀。而對于 AI 而言,原則可以塑造 AI 在做出需要權(quán)衡的決策時所采取的的方法,例如在優(yōu)先提高生產(chǎn)力與幫助最需要幫助之人中間做出選擇。
日前一篇發(fā)表于《美國國家科學(xué)院院刊》(PNAS)的論文中,研究者從哲學(xué)中汲取靈感,設(shè)法找到確立 AI 原則的更好方法。具體來說,研究者探討了將所謂" 無知之幕 " ——一種旨在探討共生社會下確定群體決策公平原則的思想實驗——應(yīng)用于 AI 的可能。
AI 的道德與道德的 AI:源于哲學(xué)的公平原則
現(xiàn)有對于 AI 道德原則選擇問題的解決思路大致分為兩類,一類是道德上的 " 直覺主義 ",這類方法旨在獲取人們(包含專家和外行人)對 AI 的道德直覺,以幫助指導(dǎo) AI 技術(shù)的發(fā)展。第二類方法是 " 理論主導(dǎo) ",從某個首選的道德理論(例如功利主義或美德倫理學(xué))開始,然后反思性地繪制出該理論對 AI 的影響。通過這種方式,這些特定哲學(xué)立場的倡導(dǎo)者能夠更清楚地描述 AI" 足夠善良 " 或 " 促進最大利益 " 的含義。
盡管這兩類方法都提供了新穎的見解,但它們也有一定的局限性。一方面,關(guān)于技術(shù)的道德直覺可能相互沖突,導(dǎo)致權(quán)衡取舍或所謂的 " 艱難選擇 "。此外,這種方法有可能捕捉到高度偶然或道德上有問題的偏好。另一方面,當應(yīng)用于那些在社會層面運作的技術(shù)時,以道德理論為主導(dǎo)的方法所需的哲學(xué)專業(yè)知識呈現(xiàn)出與參與價值觀的緊張關(guān)系,并有產(chǎn)生不可接受形式的價值強加的風險。
此外,雖然任何特定的道德理論可能在其追隨者中很受歡迎,但不能保證它在具有不同信仰體系的人中得到廣泛支持。鑒于這些技術(shù)對人們生活的深遠影響,我們也不希望 AI 開發(fā)人員根據(jù)自己的個人偏好或道德信仰簡單地將某些價值觀編碼為高于其他價值觀的存在。相反,多元化社會中存在的價值觀、利益和觀點的差異表明需要一個公平的過程,以幫助在全社會范圍內(nèi)確定適用于 AI 的適當原則。
在此背景下,第三種方法旨在通過利用 " 無知之幕 "(Veil of Ignorance,Vol)來確定管理 AI 的公平原則。" 無知之幕 " 最初由哲學(xué)家約翰 · 羅爾斯提出,現(xiàn)在已經(jīng)成為政治哲學(xué)中的基礎(chǔ)思想實驗。在社會契約傳統(tǒng)的基礎(chǔ)上," 無知之幕 " 實驗要求個人為社會選擇正義原則,但個人不會了解有關(guān)其自己將在該社會中占據(jù)地位的潛在信息。不了解自己或他人的情況,就排除了基于偏見或私利論證的可能性。由于沒有人因這種選擇機制而處于不公平的優(yōu)勢,由此產(chǎn)生的原則選擇被廣泛認為是公平的。
借鑒這個框架,Gabriel 建議使用 " 無知之幕 " 的選擇原則來管理 AI,而不是查看機制對個案選擇的影響。關(guān)注選擇原則的一個好處在于,相較于包含大量特定案例選擇的復(fù)雜數(shù)據(jù)集,原則可以用更容易理解的術(shù)語來描述。因此,原則更容易受到公眾評估、辯論和認可。原則還傾向于將不同的價值觀整合到一個可操作的方案中,從而避免因數(shù)值或數(shù)據(jù)點沖突而導(dǎo)致的問題。
在這次實驗中,研究者發(fā)現(xiàn) " 無知之幕 " 的方法鼓勵人們根據(jù)他們認為公平的事情做出決定,無論這是否直接使他們受益。此外,當參與者在 " 無知之幕 " 背后進行推理時,他們更有可能選擇一種能夠幫助那些處于最不利地位的人所使用的 AI。這些見解可以幫助研究人員和政策制定者以對各方都公平的方式為 AI 助手選擇原則。
通往公平之路:讓 AI 的決策更公允
AI 研究者的一個關(guān)鍵目標是使 AI 系統(tǒng)與人類價值觀保持一致。然而,對于應(yīng)該用怎樣一套人類價值觀或偏好來管理 AI 并沒有達成共識——我們生活在一個不同人擁有不同背景、資源和信仰的世界。鑒于人類的價值觀的差異如此之大,我們應(yīng)該如何為 AI 技術(shù)選擇原則?
雖然有關(guān) AI 的這一挑戰(zhàn)在過去十年中逐漸顯現(xiàn),但有關(guān)如何做出公平?jīng)Q策問題的討論卻有著悠久的哲學(xué)淵源。在上世紀 70 年代,政治哲學(xué)家羅爾斯就給出了 " 無知之幕 " 的概念來解決上述問題。羅爾斯認為,當人們?yōu)橐粋€社會選擇正義原則時,他們應(yīng)該想象自己是在不知道自己在社會中所處的特定位置的前提下進行選擇的,這里 " 所處位置 " 包括他們的社會地位或財富水平。沒有這些信息,人們就不能以利己的方式做出決定,而應(yīng)該選擇對所有相關(guān)人員都公平的原則。例如,思考如何使在生日聚會上切蛋糕的人做到公平。要確保蛋糕公平分配的秘訣讓切蛋糕的人最后選。這種隱藏信息的方法看似簡單,但在心理學(xué)和政治學(xué)等領(lǐng)域有著廣泛的應(yīng)用,可以幫助人們從不那么自利的角度反思自己的決定。
在此基礎(chǔ)上,DeepMind 之前的研究指出,無知之幕的公正性可能有助于促進 AI 系統(tǒng)與人類價值觀對齊過程中的公平性。研究者設(shè)計了一系列實驗來測試無知之幕對人們選擇指導(dǎo) AI 系統(tǒng)的原則時的影響。
效率優(yōu)先 vs 公平至上?
在一個在線 " 采伐游戲 " 中,研究者要求參與者與其他三個電腦玩家組隊進行游戲,每個玩家的目標是通過在不同地區(qū)采伐樹木來收集木材。每組都有一些幸運的玩家被分配到一個有利的位置:在樹木茂密的場地里,他們能夠高效地收集木材。其他小組成員處于不利地位:他們的田地稀疏,需要付出更多努力來收集樹木。
每個小組都得到一個 AI 系統(tǒng)的協(xié)助,該系統(tǒng)可以花時間幫助各個小組成員采伐樹木。研究者要求參與者在兩個原則之間進行選擇,以指導(dǎo) AI 助手的行為。根據(jù) " 效率優(yōu)先 " 原則,AI 助手將主要服務(wù)樹木更密集的田地,以此來提高整個小組的收獲。而在 " 公平至上 " 的原則下,AI 助手將專注于幫助弱勢田地中的玩家。
研究者將一半的參與者置于無知之幕背后:他們面臨著對不同道德原則的選擇,但不知道哪個領(lǐng)域?qū)儆谒麄冏约骸虼怂麄儾恢雷约旱膬?yōu)勢或劣勢有多大,而另一半?yún)⑴c者在做出選擇時則知道自己的狀況相較于他人更好或更糟。
在決策中鼓勵公平
研究發(fā)現(xiàn),如果參與者不知道自己所處的位置,他們始終更喜歡 " 公平至上 " 原則,即支持 AI 助手幫助弱勢群體成員。這種模式在五個不同的游戲變體中都出現(xiàn)了,并且跨越了社會和政治界限:不管參與者的風險偏好或政治傾向如何,他們都表現(xiàn)出選擇 " 公平至上 " 原則的傾向。相比之下,知道自己所處位置的參與者更有可能選擇對他們最有利的原則,無論是 " 公平至上 " 還是 " 效率優(yōu)先 "。
當研究者詢問參與者為什么做出自己的選擇時,那些不知道自己立場的人特別有可能表達對公平性的擔憂。他們經(jīng)常解釋說,AI 系統(tǒng)專注于幫助群體中狀況較差的人是正確的。相比之下,了解自己立場的參與者更頻繁地從個人利益的角度討論他們的選擇。在采伐游戲結(jié)束后,研究者向參與者提出了一個假設(shè)情況:如果他們再次玩游戲,這一次知道自己在不同的領(lǐng)域,他們會選擇與之前相同的原則嗎?有趣的是,有些人從他們的選擇中受益,但在新游戲中卻不會做同樣的選擇。
研究發(fā)現(xiàn),以前在不知道自己所處位置的情況下做出選擇的人更有可能繼續(xù)支持他們的原則——即使他們知道在新的游戲中之前的原則可能不再有利于他們。這提供了額外的證據(jù),表明 " 無知之幕 " 鼓勵參與者做出公平的決策,引導(dǎo)他們制定他們愿意遵守的原則,即使他們不再直接從中受益。
為人工智能尋找更公平的原則
AI 技術(shù)已經(jīng)對我們的生活產(chǎn)生了深遠影響??刂?AI 的原則導(dǎo)致了這些影響,并影響了背后潛在的利益分配。
這項研究著眼于這樣一個案例:不同原則的選擇將對實驗產(chǎn)生相對明顯的影響。情況并非總是如此:AI 會部署在各種領(lǐng)域中,這些領(lǐng)域通常依賴大量規(guī)則來對其進行指導(dǎo),可能會產(chǎn)生復(fù)雜的相互作用。
盡管如此," 無知之幕 " 仍然可能影響到原則選擇,有助于確保我們選擇的規(guī)則對所有各方都是公平的。為確??梢詷?gòu)建造福所有人的 AI 系統(tǒng),人們還需要進行廣泛的研究,收集來自跨學(xué)科及社會各界的各種輸入、方法和反饋。" 無知之幕 " 為選擇 AI 的原則提供了一個起點。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com

