來源標題:韓國女性陷入深度偽造AI換臉 人工智能技術生成逼真虛假內(nèi)容;韓國擬推進立法將散布虛假視頻等犯罪行為最高刑罰提高至7年
韓國再現(xiàn)“N號房”丑聞,這次的關鍵詞是“深度偽造犯罪”。
所謂“深度偽造犯罪”,即使用人工智能技術生成逼真的虛假內(nèi)容,該技術的泛濫使得此次韓國女性的受害者數(shù)量以及相關色情圖片視頻的傳播力度較之過去更上了一個臺階,受害者不得不在包括中國微博在內(nèi)的各國社交平臺發(fā)聲,呼吁更多人關注。
深度偽造的技術原理是什么?黑灰產(chǎn)從業(yè)者如何從中牟利?為什么韓國最泛濫?應該如何加強監(jiān)管?
對抗網(wǎng)絡不斷重復直到內(nèi)容足夠逼真
網(wǎng)絡尖刀安全團隊聯(lián)合創(chuàng)始人蔡勇在接受記者采訪時表示,AI深度偽造技術,也稱為深度偽像(Deepfake),是一種利用人工智能技術生成逼真的虛假內(nèi)容,通常是指用于偽造人物的視頻、音頻、圖像等。其主要原理涉及兩個關鍵技術:生成對抗網(wǎng)絡(GANs)和深度學習。
“技術實現(xiàn)可以這么理解:首先,我們需要一個生成器和一個判別器。生成器的任務是模仿已有的真實內(nèi)容,例如人的臉部特征,其通過學習大量的真實樣本,比如照片或視頻片段來生成看起來非常逼真的虛假內(nèi)容。而判別器的任務是辨別生成器創(chuàng)建的內(nèi)容是否真實。通過不斷迭代訓練,生成器和判別器會不斷互相競爭、學習和提高。這種對抗性的過程不斷重復,直到生成器生成的內(nèi)容足夠逼真,以至于人類很難分辨它們是虛假的。這就是為什么AI深度偽造技術可以制作出逼真的虛假視頻、音頻或圖像的原因。”蔡勇說。
黑灰產(chǎn)打擊專家丁健琮則告訴記者,Deepfake的核心原理是通過一定的圖片識別算法將2D照片動態(tài)化,或?qū)⒛硰堈掌械娜四樦踩氲揭欢蝿討B(tài)視頻中。現(xiàn)在聲紋偽造也逐步納入了Deepfake的概念。
隨著近年來AI大模型技術的逐漸成熟,一些AI生圖大模型在追求更多真實度的同時“誤打誤撞”成為了AI換臉或AI脫衣的幫兇,如此前著名的大模型StableDiffusion就被開發(fā)出了一鍵脫衣的功能,并一度泛濫。雖然后來該大模型修改了相關功能,讓這種行為有所收斂,但由于技術開源的特性,“潘多拉的盒子”已經(jīng)打開,或許難以再度關閉。
公開群組達1.5萬人繳費可進更私密群組
記者注意到,同此前的韓國“N號房”事件一樣,此次深度偽造圖像的傳播平臺依然是國外社交平臺“電報”(Telegram),該平臺可以提供端到端加密消息傳遞,總部位于俄羅斯,因其私密的特性而擁有大量國際用戶,但也因此成為了不法行為的溫床。
記者調(diào)查發(fā)現(xiàn),當前該平臺上有不少以AI色情為賣點的群組(類似于群聊天,即韓國新聞中“房”的概念),在公開可進的群組中,一個通過AI技術偽造國內(nèi)網(wǎng)紅色情圖片的群組成員人數(shù)達到了1.5萬人,通過繳費,還可以進入更加私密、尺度更大的群組,黑灰產(chǎn)從業(yè)者正是以此牟利。
除了端到端加密技術外,Telegram還賦予了包括“閱后即焚”“超級群組(動輒可達十多萬人,相比之下微信群的限制是500)”“群主設置不能復制轉(zhuǎn)發(fā)截圖”等功能,使得Telegram上的一個個群組成為了封閉式空間。此外,不少交易通過虛擬貨幣進行,令非法交易得以逃避監(jiān)管。
不過,記者注意到,Telegram里也有一些約定俗成的“禁區(qū)”,至少在公開可見的大群里,一些群成員會注意包括兒童色情、強迫性行為等在內(nèi)的內(nèi)容,曾有群成員抱怨自己發(fā)布了上述內(nèi)容后群組遭到封禁。但基于Telegram平臺本身的私密性特點,對于經(jīng)過篩選、群成員忠誠度更高的各種“房”,仍然存在此類內(nèi)容的可能性極高。
韓國大量普通人受害計劃加強處罰力度
實際上,飽受深度偽造困擾的女性并不只在韓國。歐美女演員中,“黑寡婦”斯嘉麗·約翰遜、“赫敏”艾瑪·沃特森,以及小天后泰勒·斯威夫特都是第一批遭到AI換臉的受害者,國內(nèi)明星和網(wǎng)紅也有不少受害者。
但是,為什么韓國女性受到深度偽造的傷害比之其他國家更甚?根據(jù)8月26日韓國女性民友會發(fā)布的報告,在某一個“電報”群組中,只需上傳熟人照片,付費后5秒鐘內(nèi)就能生成裸體合成圖,而該群組的參與人數(shù)高達22.7萬人。
相比其他國家AI偽造的受害者大多是明星網(wǎng)紅,韓國更有大量的普通人受害,有韓國女大學生受害者表示,自己有數(shù)十張裸體照片在電報群組中傳播,臉上寫著不堪入目的臟話,甚至還有人通過AI生成了自己的色情語音。
民友會在報告中質(zhì)問,“(韓國)女性們生活在一個無法有效懲罰或預防針對女性犯罪和暴力的社會中,失去了日常生活的安全感,仿佛生活在一個沒有國家的狀態(tài)中。這樣的社會還有存在的必要?”
實際上,對于此類犯罪行為,韓國并非沒有相關的法律,“N號房”事件的發(fā)生就推動了韓國《Telegram“N號房”事件防治法》的出臺,包括《關于性暴力犯罪處罰的特例法修訂案》《刑法修正案》《關于限制犯罪收益隱匿的規(guī)定及處罰的法律修訂案》等內(nèi)容。
據(jù)韓聯(lián)社8月29日報道,韓國政府還計劃加強對利用“深度偽造”進行性犯罪行為的處罰力度,并推進與通訊軟件“電報”的運營公司構建合作熱線。韓國執(zhí)政黨國民力量黨政策委員會主席金相勛在發(fā)布會上稱,黨政在國會開會討論“深度偽造”性犯罪的預防對策。雙方計劃推進立法,將散布虛假視頻等犯罪行為的最高刑罰從5年提高至7年。
■觀點
加大AI平臺使用者審核打擊為黑產(chǎn)提供支持的APK工具
在采訪中,不少專家都認為隨著AI技術的進步,想要阻止人們使用AI生成偽造視頻或圖片,并不現(xiàn)實,想要制止此類行為,需要從其他方面“下功夫”。
“近年來Deepfake愈演愈烈、難以監(jiān)管的原因在于技術擴散。很多類似的黑產(chǎn)技術被不斷地工具化甚至SaaS服務化,使用者不需要懂得相關技術,只需要通過某些途徑獲得包裝好的插件或者在網(wǎng)絡平臺上付費就可以實現(xiàn)內(nèi)容的輸入輸出。”丁健琮表示。
“必須明確的是,使用AI工具進行偽造,效率要比傳統(tǒng)偽造方式高得多,技術門檻卻又低得多。俗話說得好,‘造謠一張嘴,辟謠跑斷腿。’當前,通過專業(yè)技術手段或?qū)<诣b定可以識別AI深偽視頻和圖片,但成本也很高,隨著技術不斷進步,AI生成或合成的視頻最終無法被鑒定真?zhèn)?,是必然的?rdquo;奇安信集團行業(yè)安全研究中心主任裴智勇告訴記者。
在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實,但這并不意味著對偽造視頻或圖片毫無辦法,“國內(nèi)對于網(wǎng)絡色情視頻和圖片都有非常成熟的治理方法,即便不能用技術鑒別一張圖片的真?zhèn)?,但可以從平臺一側阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實施打擊。”
丁健琮則建議,應該從源頭管控技術擴散,“正規(guī)的AI技術平臺對于上傳和生成的內(nèi)容應當有審核,使用者也需要實名注冊,國內(nèi)法已經(jīng)明確建立了此類規(guī)定。正規(guī)經(jīng)營者應當嚴格落實國家法律法規(guī)要求。而對于為黑產(chǎn)提供支持的APK工具或者SaaS網(wǎng)站,要依賴嚴厲的打擊??梢詤⒖紘鴥?nèi)反詐工作的思路,軟硬件生態(tài)聯(lián)合對相關的APK和網(wǎng)站進行封禁。”
裴智勇表示,從未來角度看,應當積極探索和推廣照片與視頻的防偽技術。例如,通過數(shù)字加密技術、數(shù)字水印技術等,可以給每一張圖片或每一段視頻打上一段不可偽造的驗證信息,一旦內(nèi)容被修改,驗證信息就會被破壞,從而達到雖然不能鑒偽,但可以“保真”的效果。
“具體來說,比如,使用某品牌、某型號、某序列號的特定手機拍攝照片,照片文件上就會帶有一串肉眼看不見、但機器可識別的加密驗證碼。驗證系統(tǒng)一旦識別到這段驗證碼,就可以確定這張照片一定是用這部手機拍攝的,而使用任何其他設備,都無法生成這段驗證碼。一旦有人對這張照片就行修改,不論是AI修改,還是人工手動修改,驗證系統(tǒng)都能識別出其‘不是原圖’。這里所說的方法并非什么新技術,而是成熟密碼技術。需要的只是推廣和深度普及。”裴智勇說。
“目前,國內(nèi)外已經(jīng)有一些專門用于識別Deepfake生成結果的技術和專利,國內(nèi)內(nèi)容平臺可以通過在內(nèi)容巡檢功能中增加對Deepfake類內(nèi)容的識別技術,盡可能切斷傳播鏈。”丁健琮告訴記者。
關于我們| 客服中心| 廣告服務| 建站服務| 聯(lián)系我們
中國焦點信息網(wǎng) 版權所有 滬ICP備2022005074號-20,未經(jīng)授權,請勿轉(zhuǎn)載或建立鏡像,違者依法必究。