AI熱潮下“深度偽造”問(wèn)題不容忽視
最近幾個(gè)月,人工智能生成內(nèi)容(AIGC)的關(guān)注度持續(xù)升溫,全球競(jìng)逐AI賽道,人工智能的發(fā)展速度已遠(yuǎn)超我們的想象。以ChatGPT、文心一言等為代表的大模型以“聊天式”交互界面不斷降低AI的使用門(mén)檻,AI產(chǎn)業(yè)迎來(lái)高光時(shí)刻,但利用AI進(jìn)行詐騙的案例時(shí)有發(fā)生,人工智能技術(shù)突破和進(jìn)步結(jié)出的AI碩果不應(yīng)成為滋養(yǎng)“深度偽造(Deepfake)”的沃土。
AI發(fā)展狂飆
但給它的自由不能過(guò)了火
今年2月,一段由AI生成的美國(guó)主持人喬·羅根(Joe Rogan)推銷(xiāo)保健品的廣告在某社交平臺(tái)上瘋傳。這段由Deepfake制作的內(nèi)容使得公眾難以分辨名人形象的真?zhèn)?,最終被平臺(tái)刪除。“深度偽造(Deepfake)”一詞由深度學(xué)習(xí)(Deep Learning)和偽造(fake)組合而來(lái),Deepfake是一種人工智能技術(shù),能夠?qū)⑷说拿娌勘砬楹吐曇襞c另一個(gè)人的圖像和聲音結(jié)合起來(lái),從而創(chuàng)造出虛假的視頻或音頻。這種技術(shù)可用于制作虛假新聞、電信網(wǎng)絡(luò)詐騙、制作色情作品等,具有極大的潛在危險(xiǎn)性。
未經(jīng)授權(quán)的深度偽造視頻開(kāi)辟了一個(gè)新的法律灰色地帶,名人個(gè)人形象的品牌價(jià)值管理受到影響,多維度精心打造的商業(yè)形象可能不復(fù)存在。那么對(duì)于普通人,深度偽造視頻會(huì)帶來(lái)怎樣的危害?近日,一起由“AI換臉”實(shí)施的詐騙引發(fā)熱議,受害人10分鐘被騙走430萬(wàn)元,視頻通話的“好友”竟不是朋友本人,“確認(rèn)過(guò)眼神”還是一腳踏入AI騙局。
伴隨AI技術(shù)的革新和突破,生成虛假視頻的技術(shù)難度和成本大幅降低,為深度偽造野蠻生長(zhǎng)提供了養(yǎng)料,相關(guān)法律法規(guī)也要及時(shí)更新,整治AI換臉、AI偷臉,積極引導(dǎo)負(fù)責(zé)任的AI研發(fā)與應(yīng)用活動(dòng),用“法”打敗“魔法”。去年12月,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》發(fā)布,對(duì)人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。顯然,隨著制度設(shè)計(jì)更精準(zhǔn)、相關(guān)立法更健全,深度偽造的生長(zhǎng)空間將越來(lái)越逼仄。
防范AI濫用
確保技術(shù)健康有序發(fā)展
使用ChatGPT導(dǎo)致芯片機(jī)密數(shù)據(jù)泄露,“AI孫燕姿”靠翻唱成為音樂(lè)圈新頂流,推特瘋傳AI生成的“五角大樓爆炸圖”引美股下跌……隨著人工智能技術(shù)的蓬勃發(fā)展,AI已經(jīng)融入日常娛樂(lè)、企業(yè)生產(chǎn)的方方面面,與此同時(shí),數(shù)據(jù)泄露、作品侵權(quán)、虛假新聞傳播等濫用AI的事件也層出不窮,為人工智能技術(shù)健康有序發(fā)展帶來(lái)挑戰(zhàn)。
ChatGPT雖然是工作效率提升“神器”,寫(xiě)方案、調(diào)代碼等游刃有余,但是,把數(shù)據(jù)尤其是涉密數(shù)據(jù)“投喂”給AI大模型,也意味著,這些數(shù)據(jù)可能成為大模型的訓(xùn)練數(shù)據(jù),進(jìn)而泄露給未經(jīng)授權(quán)的第三方,對(duì)國(guó)家安全、企業(yè)競(jìng)爭(zhēng)力等產(chǎn)生嚴(yán)重影響。為確保涉密數(shù)據(jù)的安全性,通常不建議將其輸入ChatGPT中,應(yīng)使用更加安全的方法來(lái)存儲(chǔ)、處理涉密信息,例如使用專(zhuān)用的安全存儲(chǔ)設(shè)備或系統(tǒng)、采用加密技術(shù)對(duì)敏感信息進(jìn)行加密和保護(hù)等。
此外,借助AI能夠制作出非常逼真的虛假視頻或圖像,這些虛假作品很難被人眼識(shí)別出來(lái),容易誤導(dǎo)公眾。為規(guī)范人工智能發(fā)展,去年12月,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》正式發(fā)布,明確了合成數(shù)據(jù)和技術(shù)管理規(guī)范。其中提到:深度合成服務(wù)提供者對(duì)使用其服務(wù)生成或編輯的信息內(nèi)容,應(yīng)當(dāng)添加不影響使用的標(biāo)識(shí)。提供智能對(duì)話、合成人聲、人臉生成、沉浸式擬真場(chǎng)景等生成或者顯著改變信息內(nèi)容功能的服務(wù)的,應(yīng)當(dāng)進(jìn)行顯著標(biāo)識(shí),避免公眾混淆或者誤認(rèn)。
近期,也有平臺(tái)和企業(yè)發(fā)布了“關(guān)于人工智能生成內(nèi)容的平臺(tái)規(guī)范暨行業(yè)倡議”,明確禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布侵權(quán)內(nèi)容,包括但不限于肖像權(quán)、知識(shí)產(chǎn)權(quán)等,一經(jīng)發(fā)現(xiàn),平臺(tái)將嚴(yán)格處罰。
AI創(chuàng)新在前
但要嚴(yán)守科技倫理底線
2019年,英國(guó)一家能源公司的CEO接到其母公司總裁的電話,要求將22萬(wàn)歐元轉(zhuǎn)入匈牙利銀行賬戶,他照做了,但實(shí)際這個(gè)“總裁”的聲音是人工合成的。Deepfake不僅能夠用于偽造他人的人臉和聲音信息,“復(fù)活”已故人士也不在話下。2020年10月,美國(guó)網(wǎng)紅卡戴珊發(fā)布了一段由Deepfake創(chuàng)建的其已故父親的視頻;2022年,貓王埃爾維斯·普雷斯利在美國(guó)達(dá)人秀第17季中被Deepfake“復(fù)活”……
為應(yīng)對(duì)深度偽造帶來(lái)的潛在問(wèn)題,各國(guó)政府紛紛出臺(tái)相關(guān)法規(guī)和措施。2018年12月,美國(guó)參議院提出了《2018年惡意偽造禁令法案》,對(duì)制作深度偽造內(nèi)容引發(fā)犯罪和侵權(quán)行為的個(gè)人,以及明知內(nèi)容為深度偽造還繼續(xù)分發(fā)的社交媒體平臺(tái),進(jìn)行罰款和處以長(zhǎng)達(dá)兩年的監(jiān)禁。2019年6月,美國(guó)眾議院提出《深度偽造責(zé)任法案》(Deepfakes Accountability Act),要求任何創(chuàng)建深度偽造視頻媒體文件的人,必須用“不可刪除的數(shù)字水印以及文本描述”來(lái)說(shuō)明該媒體文件是篡改或生成的,否則將屬于犯罪行為。
歐盟主要通過(guò)個(gè)人信息保護(hù)和虛假信息治理等法律法規(guī)來(lái)從法律層面限制人工智能造假技術(shù)的應(yīng)用。2022年6月,歐洲委員會(huì)公布了加強(qiáng)版《反虛假信息行為準(zhǔn)則》,要求谷歌、Meta等在歐盟擁有巨量用戶的大型科技公司,采取措施來(lái)打擊其平臺(tái)上的深度偽造和虛假賬戶,否則將面臨高達(dá)其全球營(yíng)業(yè)額6%的罰款。
在應(yīng)對(duì)深度偽造帶來(lái)的監(jiān)管挑戰(zhàn)上,中國(guó)有關(guān)部門(mén)行動(dòng)迅速,制定的規(guī)章更為精細(xì)全面,去年12月發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》覆蓋了深度偽造的文本、圖像、音頻、視頻和虛擬場(chǎng)景等,進(jìn)一步明確了合成數(shù)據(jù)和技術(shù)的相關(guān)管理規(guī)范。值得注意的是,其中提到的文本內(nèi)容包括由AI大語(yǔ)言模型生成的文本,AI生成虛假新聞等情況的應(yīng)對(duì)和處理將有規(guī)可依。
此外,近日成立的工業(yè)和信息化部科技倫理委員會(huì)、工業(yè)和信息化領(lǐng)域科技倫理專(zhuān)家委員會(huì),將為進(jìn)一步健全產(chǎn)業(yè)科技創(chuàng)新體系、完善工業(yè)和信息化領(lǐng)域科技倫理治理體系等提供重要基礎(chǔ)。AI技術(shù)和應(yīng)用要?jiǎng)?chuàng)新要發(fā)展,但不可跨越倫理紅線。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com

