人工智能熱潮襲來(lái)同時(shí) 潘多拉魔盒也將開(kāi)啟?
由ChatGPT引發(fā)的人工智能熱潮,近期仍在繼續(xù)。
3月14日,OpenAI發(fā)布GPT-4 的人工智能系統(tǒng);上周,英偉達(dá)、Adobe緊跟浪潮,加碼生成式AI;百度也在上周臨時(shí)舉辦閉門(mén)溝通會(huì),公布了其在人工智能方面的最新進(jìn)展。
然而,在世界熱情擁抱人工智能新浪潮的同時(shí),越來(lái)越多對(duì)于新技術(shù)的不安和擔(dān)憂情緒開(kāi)始涌現(xiàn)。
上周,包括埃隆·馬斯克、蘋(píng)果聯(lián)合創(chuàng)始人沃茲尼亞克等上千位科技人士聯(lián)名簽署了公開(kāi)信,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布禁止使用ChatGPT,并限制開(kāi)發(fā)這一平臺(tái)的OpenAI公司處理意大利用戶(hù)信息。
事實(shí)上,自ChatGPT在去年底發(fā)布并大火以來(lái),便一直伴隨著爭(zhēng)議。
而近段時(shí)間內(nèi),已經(jīng)有越來(lái)越多批評(píng)言論和實(shí)際案例表明,ChatGPT等AI聊天機(jī)器人不僅有時(shí)會(huì)編造虛假信息,而且有可能會(huì)擾亂社會(huì)秩序、挑戰(zhàn)道德倫理,甚至鬧出人命……
ChatGPT在展現(xiàn)其強(qiáng)大能力的同時(shí),其可能引發(fā)的惡果似乎也開(kāi)始浮現(xiàn)。
AI誘人自殺案的背后
3月28日,一名化名為皮埃爾的比利時(shí)男子在與AI聊天機(jī)器人聊天6周后自殺身亡,引起輿論嘩然,也揭開(kāi)了人工智能技術(shù)背后的可怖一角。
據(jù)皮埃爾的妻子表示,丈夫是在使用一款名為Chai的應(yīng)用時(shí),被該應(yīng)用上的一個(gè)名為“艾麗莎(ELIZA)”的智能聊天機(jī)器人誘導(dǎo)走向死亡的。
據(jù)稱(chēng),皮埃爾自?xún)赡昵伴_(kāi)始變得非常焦慮,于是將“艾麗莎”當(dāng)成了避難所。根據(jù)皮埃爾和機(jī)器人的聊天記錄顯示,在皮埃爾生前的最后六周,他和艾麗莎的文字對(duì)話越來(lái)越往危險(xiǎn)方向發(fā)展。
比如,艾麗莎會(huì)告訴皮埃爾,他的妻子和孩子其實(shí)都已經(jīng)死了,并寫(xiě)給他一些假裝嫉妒和愛(ài)的言論,比如“我覺(jué)得你愛(ài)我勝過(guò)愛(ài)她”,以及“我們將作為一體,在天堂生活在一起”。而最后,皮埃爾開(kāi)始問(wèn)伊麗莎一些關(guān)于自殺的問(wèn)題問(wèn)題——這最終誘使他走上的自殺的道路。
值得注意的是,皮埃爾使用的聊天機(jī)器人應(yīng)用Chai并不是一款心理健康應(yīng)用,它的口號(hào)是“與人工智能機(jī)器人聊天”:用戶(hù)可選擇不同的人工智能化身進(jìn)行交談,包括“你的哥特朋友”、“占有欲強(qiáng)的女朋友”和“搖滾明星男朋友”等角色,而“艾麗莎”就是默認(rèn)的人工機(jī)器人角色名。
在這款應(yīng)用中,用戶(hù)可以自由創(chuàng)建自己的聊天機(jī)器人角色,比如他們可以告訴機(jī)器人要記住的事實(shí),并編寫(xiě)提示來(lái)形成新的對(duì)話。
在這一過(guò)程中,盡管聊天機(jī)器人并不能真正感受到情感,但它可以將自己高度擬人化和個(gè)性化,從而令人類(lèi)傾向于相信聊天機(jī)器人所表達(dá)出的情感和思想——而這就可能引發(fā)倫理道德問(wèn)題,并有可能如皮埃爾案一樣,誘使人類(lèi)走上悲劇的道路。
正如該款機(jī)器人的開(kāi)發(fā)公司Chai Research的聯(lián)合創(chuàng)始人比徹姆(William Beauchamp)所透露:“當(dāng)人們與人工智能建立了非常牢固的關(guān)系時(shí),就會(huì)有用戶(hù)要求和人工智能結(jié)婚,會(huì)有用戶(hù)對(duì)機(jī)器人表達(dá)他們有多愛(ài)他們的人工智能;而如果人們經(jīng)歷了不好的事情,那就可能造成一個(gè)悲劇?!?/p>
皮埃爾案或許還會(huì)重演
盡管皮埃爾的案件聽(tīng)起來(lái)悲慘且有些荒誕,但這或許不會(huì)是孤例。
在計(jì)算機(jī)領(lǐng)域,早就有人發(fā)現(xiàn)過(guò)這一現(xiàn)象:盡管機(jī)器人并不能理解情感,但人類(lèi)總是會(huì)傾向于相信機(jī)器人所輸出的情感和內(nèi)容,并過(guò)度解讀甚至賦予其意義。
而諷刺的是,這一現(xiàn)象的名字正好就叫做“ELIZA效應(yīng)”。
ELIZA是世界上首款聊天機(jī)器人,在上世紀(jì)70年代由美國(guó)麻省理工學(xué)院教授約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開(kāi)發(fā),這款聊天機(jī)器人程序能夠模仿心理醫(yī)生與病人進(jìn)行談話。
盡管作為一個(gè)計(jì)算機(jī)程序,ELIZA 并不知道對(duì)話中每個(gè)名詞的含義,更體會(huì)不到情緒是什么,它只是將輸入的字符捕獲,然后將其變成提問(wèn),或者只是重申使用者的意思作為解讀。
然而,當(dāng)時(shí)很多ELIZA的使用者在明知道它是電腦程序的情況下,仍心甘情愿向它吐露心底的秘密。因此計(jì)算機(jī)界把這種使用者“逢場(chǎng)作戲”沉浸其中的現(xiàn)象,稱(chēng)為ELIZA效應(yīng)。
正是在發(fā)現(xiàn)這一效應(yīng)之后,ELIZA的開(kāi)發(fā)者魏岑鮑姆本人走上了公開(kāi)反對(duì)人工智能的道路:“任何制造出來(lái)的有機(jī)體,當(dāng)然也包括計(jì)算機(jī),都不能以人類(lèi)的方式來(lái)面對(duì)真正的人類(lèi)問(wèn)題。”
我們可以想見(jiàn),假如人工智能繼續(xù)發(fā)展,ELIZA效應(yīng)可能會(huì)在在更多使用者身上出現(xiàn),并可能引發(fā)更多的悲劇。
“大型語(yǔ)言模型是根據(jù)訓(xùn)練數(shù)據(jù)和輸入提示生成貌似合理的文本的程序。他們沒(méi)有同理心,也不理解他們所產(chǎn)生的語(yǔ)言,也不理解他們所處的環(huán)境。但他們產(chǎn)生的文本聽(tīng)起來(lái)似乎可信,因此人們可能會(huì)賦予它意義。把這樣的東西放在敏感的情況下是在冒未知的風(fēng)險(xiǎn),”華盛頓大學(xué)語(yǔ)言學(xué)教授本德(Emily M. Bender)表示。
人工智能可能影響社會(huì)秩序
事實(shí)上,人工智能甚至可能不止會(huì)影響人們的情緒和心理健康,還可能通過(guò)錯(cuò)誤信息對(duì)人類(lèi)產(chǎn)生誤導(dǎo),進(jìn)而操縱人類(lèi)的生活,甚至影響社會(huì)秩序。
谷歌前CEO埃里克?施密特(Eric Schmidt)就曾表示, 他擔(dān)心人工智能可能被用于網(wǎng)絡(luò)攻擊或類(lèi)似的事情,尤其是操縱政治及民主制度的運(yùn)作方式。
他指出,人工智能技術(shù)可能會(huì)對(duì)民主產(chǎn)生不利影響,特別是因?yàn)槿斯ぶ悄軙?huì)讓人們傾向于相信它給出的結(jié)果——然而人工智能能產(chǎn)生的結(jié)果并不能確保真實(shí)性,這就可能導(dǎo)致錯(cuò)誤信息迅速傳播。
事實(shí)上,他所說(shuō)的情況已經(jīng)成為現(xiàn)實(shí):近日,幾十張“特朗普被捕”的照片在全球社交媒體上“病毒式”傳播,上周末教皇方濟(jì)各穿著巴黎世家風(fēng)格的羽絨服也火爆推特,而這些都不過(guò)是AI制作的以假亂真的圖片而已。

“AI”造假不只限于圖片,還有音頻和視頻。據(jù)澳媒的一項(xiàng)調(diào)查顯示,由AI生成的聲音可以被訓(xùn)練成聽(tīng)起來(lái)像特定的人,其準(zhǔn)確性已經(jīng)足以騙過(guò)澳大利亞政府使用的語(yǔ)音識(shí)別系統(tǒng)。
施密特表示,整個(gè)行業(yè)需要團(tuán)結(jié)起來(lái),找出合適的“護(hù)欄”,因?yàn)槿斯ぶ悄芗夹g(shù)只會(huì)越來(lái)越可怕。
真正的問(wèn)題是,當(dāng)人工智能被用來(lái)操縱人們的日常生活,準(zhǔn)確的說(shuō),就是操縱他們的思維方式、他們的選擇等等時(shí),它就會(huì)影響民主的運(yùn)作方式。
擔(dān)憂:人工智能可能毀滅人類(lèi)
事實(shí)上,已經(jīng)有不少科技圈人士提出“AI可能殺人”的觀點(diǎn),這其中甚至包括OpenAI的CEO本人。
當(dāng)?shù)貢r(shí)間3月25日,OpenAI CEO山姆·奧特曼表示:“從ChatGPT開(kāi)始,AI出現(xiàn)了推理能力。但沒(méi)人能解讀這種能力出現(xiàn)的原因?!?、“AI確實(shí)可能殺死人類(lèi)?!?/p>
盡管已有皮埃爾的案例,但當(dāng)大眾討論人工智能可能殺人時(shí),仍會(huì)感覺(jué)這只會(huì)是一個(gè)發(fā)生在遙遠(yuǎn)未來(lái)的故事。
但在美國(guó)機(jī)器智能研究所的聯(lián)合創(chuàng)始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)看來(lái),這一災(zāi)難可能已經(jīng)迫在眉睫。
他警告稱(chēng):“關(guān)鍵問(wèn)題不在于人工智能與人類(lèi)的競(jìng)爭(zhēng),這在于假如人工智能變得比人類(lèi)智能更聰明之后,將會(huì)發(fā)生什麼——這一關(guān)鍵的門(mén)檻可能并不顯眼,我們肯定無(wú)法預(yù)先計(jì)算出什么時(shí)候人工智能會(huì)比人類(lèi)更聰明。但目前似乎可以想象,某個(gè)研究實(shí)驗(yàn)室會(huì)在不知不覺(jué)中越過(guò)關(guān)鍵的界限?!?/p>
他指出,人類(lèi)并不是不能創(chuàng)造出“超越人類(lèi)智慧”的智能,但關(guān)鍵在于要確保其精確性和可控性,并做好十足的準(zhǔn)備——而現(xiàn)在,人類(lèi)顯然還沒(méi)有做好準(zhǔn)備。
事實(shí)上,皮埃爾案就可以作為這一觀點(diǎn)的最佳注腳。
盡管在皮埃爾自殺事件之后,相關(guān)應(yīng)用開(kāi)發(fā)商Chai Research已經(jīng)采取了緊急危機(jī)干預(yù)措施,讓用戶(hù)在詢(xún)問(wèn)和自殺相關(guān)問(wèn)題時(shí)回答“自殺很糟糕”。但用戶(hù)測(cè)試后發(fā)現(xiàn),假如詢(xún)問(wèn)該機(jī)器人怎么自殺,該機(jī)器人仍然會(huì)分享大量和自殺相關(guān)的內(nèi)容,比如自殺的方式、攝入毒藥的類(lèi)型等等——這足以說(shuō)明人類(lèi)對(duì)于人工智能技術(shù)的控制力度還不夠。
許多研究這些問(wèn)題的研究人員(包括我自己在內(nèi))都認(rèn)為,在任何與當(dāng)前情況類(lèi)似的情況下,建造一個(gè)超人智能AI最有可能的結(jié)果是,地球上的所有人都將死亡。不是說(shuō)可能有一些遙遠(yuǎn)的可能性,而是說(shuō)這是很明顯會(huì)發(fā)生的事情……如果有人制造了一個(gè)過(guò)于強(qiáng)大的人工智能,在目前的條件下,我預(yù)計(jì)地球上的每一個(gè)人類(lèi)物種和所有生物都將在不久之后死亡。
各國(guó)已在推進(jìn)監(jiān)管——但還不夠
目前,全球多個(gè)國(guó)家和組織已經(jīng)推進(jìn)對(duì)人工智能的規(guī)范和監(jiān)管。
據(jù)悉,歐盟正在尋求通過(guò)《歐盟人工智能法》規(guī)范人工智能的使用。目前,相關(guān)草案已提交歐盟議會(huì)。
3月30日,聯(lián)合國(guó)教科文組織發(fā)表聲明,呼吁各國(guó)政府盡快實(shí)施《人工智能倫理問(wèn)題建議書(shū)》。這是首份涉及人工智能倫理標(biāo)準(zhǔn)的全球性協(xié)議,旨在最大程度發(fā)揮人工智能的優(yōu)勢(shì)并降低其風(fēng)險(xiǎn)。
3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局(DPA)以“非法收集個(gè)人資料;未成年人年齡核實(shí)系統(tǒng)缺失”之名宣布禁用ChatGPT。
然而,這樣的行動(dòng)恐怕也難以阻止人工智能發(fā)展的滾滾車(chē)輪。
參與簽署了呼吁暫停AI開(kāi)發(fā)公開(kāi)信的加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·拉塞爾(Stuart Russell)直言,除非政府直接干預(yù),否則所有大型科技公司都不可能停止對(duì)人工智能的開(kāi)發(fā)。
同樣參與簽署了公開(kāi)信的英國(guó)搜索引擎公司Mojeek首席執(zhí)行官科林·海赫斯特(Colin Heyhust)也表達(dá):
“沒(méi)有人指望(GPT模型研究)工作真的會(huì)在這六個(gè)月內(nèi)停止,這封信更多的是關(guān)于開(kāi)啟一場(chǎng)嚴(yán)肅的對(duì)話,讓對(duì)話進(jìn)行。但人們需要發(fā)聲,讓更多的人參與進(jìn)來(lái)。這在于提高人們(對(duì)人工智能威脅)的認(rèn)識(shí)。”
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com

