隨著深度合成技術(shù)不斷成熟,AI換臉效果將更逼真。(@視覺(jué)中國(guó))
在科技高速發(fā)展的今天,一些不法分子開(kāi)始利用各種AI深度合成技術(shù)實(shí)施違法行為。日前在廣東,一位女性聲稱(chēng)自己的聲音被AI軟件進(jìn)行了合成,之后有人就利用她的聲音向其好友發(fā)布語(yǔ)音留言借錢(qián),朋友誤以為是該女性本人于是進(jìn)行轉(zhuǎn)賬,導(dǎo)致2萬(wàn)元損失;前不久在福州,一位男性則是被一位AI換臉后的“好友”通過(guò)視頻方式騙走430萬(wàn)元……目前,這些利用AI技術(shù)的深度合成騙術(shù)還有哪些類(lèi)型?大眾應(yīng)當(dāng)如何防范?記者對(duì)此進(jìn)行了調(diào)查,并采訪了一些人工智能方面的專(zhuān)家。
(資料圖片)
AI換臉、AI變聲、AI假新聞……深度合成騙術(shù)引發(fā)關(guān)注
“律師界最近都十分關(guān)注這起10分鐘詐騙430萬(wàn)元的案件,福州的郭先生遇上‘高端’騙局,對(duì)方通過(guò)AI換臉技術(shù)佯裝成其好友對(duì)他實(shí)施詐騙。目前,利用AI技術(shù)進(jìn)行詐騙的案例屬于新型的信息網(wǎng)絡(luò)犯罪案件,隨著AI深度合成技術(shù)不斷成熟,類(lèi)似的詐騙手法恐怕還會(huì)出現(xiàn),需要公眾引起足夠大的重視?!睆V東勝倫律師事務(wù)所的劉鎮(zhèn)東律師介紹。
劉鎮(zhèn)東介紹了廣東發(fā)生的另一起案件:某男性嫌疑人通過(guò)合成軟件,將自己的聲音變成年輕女性的聲音,之后他在某婚戀平臺(tái)上交友,導(dǎo)致多位男性上當(dāng)受騙,向該嫌疑人贈(zèng)送了價(jià)值不菲的禮物。最后該男子也因涉嫌詐騙罪被處罰。
琶洲實(shí)驗(yàn)室智慧城市關(guān)鍵技術(shù)研究與應(yīng)用團(tuán)隊(duì)負(fù)責(zé)人許勇教授告訴記者,如今除了聲音和人臉合成,另一項(xiàng)深度合成技術(shù)的濫用也值得警惕,就是信息操縱?!癆I可以用于生成假新聞、虛假信息,進(jìn)而被用來(lái)操縱社交媒體輿論?!?/p>
記者發(fā)現(xiàn),AI假新聞現(xiàn)象時(shí)有發(fā)生:今年2月中旬,網(wǎng)上曾流傳出一則 “某市政府3月1日取消機(jī)動(dòng)車(chē)依尾號(hào)限行”的消息,經(jīng)警方調(diào)查后發(fā)現(xiàn),這竟是當(dāng)?shù)啬承^(qū)業(yè)主隨手用AI大語(yǔ)言模型生成的假新聞;5月16日凌晨,某市一雞排店門(mén)前,楊某、劉某、耿某與鄰桌李某發(fā)生口角爭(zhēng)執(zhí),雙方使用啤酒瓶、塑料啤酒框等斗毆,均受輕傷。視頻流傳到網(wǎng)絡(luò)后迅速引發(fā)關(guān)注,但一位男子陳某看到后,利用AI大語(yǔ)言模型生成并發(fā)布“某雞排店驚現(xiàn)血案,男子用磚頭砸死女子”的不實(shí)信息。經(jīng)查,公安機(jī)關(guān)認(rèn)定陳某惡意夸大、編造信息以博取流量,已依法對(duì)其采取刑事強(qiáng)制措施。
人工智能專(zhuān)家:多觀察臉部不自然變化 低分辨率視頻要警惕
近日,兩位人工智能方面的專(zhuān)家向記者介紹深度合成技術(shù)的原理。
許勇說(shuō):“首先依靠人臉檢測(cè)算法提取出人臉區(qū)域,然后用人臉關(guān)鍵點(diǎn)定位技術(shù)確定五官等關(guān)鍵部位的位置,提取人臉特征、面部表情和動(dòng)作信息等關(guān)鍵信息,最后將提取出的特征遷移、融合到目標(biāo)位置,就能實(shí)現(xiàn)如今我們看到的AI換臉?!?/p>
暨南大學(xué)信息科學(xué)技術(shù)學(xué)院碩士生導(dǎo)師林舒源則介紹:“早期移植人臉局部特征的換臉?lè)绞酱嬖诿黠@的拼接痕跡,但近年隨著生成式對(duì)抗網(wǎng)絡(luò)和擴(kuò)散模型的快速發(fā)展,其合成的人臉效果幾乎到了以假亂真的程度。目前市面上的AI換臉軟件大都基于深度學(xué)習(xí)模型/開(kāi)源框架和大規(guī)模的訓(xùn)練數(shù)據(jù)集,來(lái)提供逼真和可信的換臉效果。當(dāng)然,也有一些軟件直接調(diào)用第三方公司開(kāi)放的API接口來(lái)實(shí)現(xiàn)換臉。從最近的詐騙案件可以看出,當(dāng)前的AI換臉技術(shù)已經(jīng)足夠生成逼真的假象來(lái)欺騙受害者?!?/p>
林舒源表示,盡管未來(lái)鑒別AI換臉和真人之間的區(qū)別會(huì)變得越來(lái)越困難,但仍有可能通過(guò)分析和觀察來(lái)發(fā)現(xiàn)一些兩者間的差異?!拔覀円^察眼睛、嘴巴、耳朵等區(qū)域的細(xì)微特征(如光照、紋理等),那些不自然的變化可能就是AI生成的;如果視頻中的人臉與周?chē)h(huán)境不協(xié)調(diào),遮擋臉部后視頻產(chǎn)生扭曲,則可能是AI換臉的結(jié)果。此外,如果人臉的動(dòng)作、表情和語(yǔ)音不匹配或不自然,也可能是AI生成的?!?/p>
許勇認(rèn)為:“AI換臉之后,人的表情會(huì)沒(méi)那么自然,我們可以觀察‘人臉部分’與‘身體部分’相比有沒(méi)有更加模糊或者更加清晰;也可以觀察臉的邊緣是否存在瑕疵,比如觀察人物的嘴唇動(dòng)作與聲音是否同步、某些區(qū)域是否存在異常閃爍與形變等。另外,我們要對(duì)低分辨率的視頻保持額外的警惕。因?yàn)榈头直媛室曨l缺乏細(xì)節(jié),所以更容易以假亂真。此外,我們可以多關(guān)注權(quán)威機(jī)構(gòu)和專(zhuān)家的建議?!?/p>
律師:AI深度合成需取得當(dāng)事人“單獨(dú)同意”
劉鎮(zhèn)東律師告訴記者,無(wú)論是AI變臉還是AI變聲詐騙,當(dāng)事人在報(bào)案時(shí)都會(huì)存在一個(gè)重要的難點(diǎn),就是他們要去證實(shí)當(dāng)時(shí)要求朋友轉(zhuǎn)賬的并不是他本人,這方面,收集、固定證據(jù)會(huì)比較難?!爱?dāng)事人要向司法機(jī)關(guān)證明自身的生物信息是被別人竊取的,同時(shí)證明這些生物信息被他人通過(guò)AI深度合成,實(shí)施了刑法上所稱(chēng)的虛構(gòu)事實(shí)、隱瞞真相的欺騙行為,從而導(dǎo)致財(cái)產(chǎn)受損。”
劉鎮(zhèn)東認(rèn)為,應(yīng)進(jìn)一步加強(qiáng)對(duì)信息網(wǎng)絡(luò)平臺(tái)運(yùn)營(yíng)方的監(jiān)管,“一些平臺(tái)對(duì)個(gè)人生物信息的錄入過(guò)于寬松,導(dǎo)致生物信息很容易被竊?。涣硗?,對(duì)于相關(guān)深度合成技術(shù)的監(jiān)控管理目前也較為寬松?!?/p>
劉鎮(zhèn)東介紹,AI換臉軟件的使用存在違法、違規(guī)的可能?!懊穹ǖ涞?019條就明確規(guī)定,任何組織或者個(gè)人都不得以丑化、污損或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán);去年12月,國(guó)家網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確,深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識(shí)別信息編輯功能的,應(yīng)當(dāng)提示深度合成服務(wù)使用者,要依法告知被編輯的個(gè)人,并取得其單獨(dú)同意?!?/p>
今年4月,國(guó)家網(wǎng)信辦起草了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,向社會(huì)公開(kāi)征求意見(jiàn)。劉鎮(zhèn)東認(rèn)為,該意見(jiàn)稿定稿發(fā)布后,深度合成技術(shù)將會(huì)受到進(jìn)一步規(guī)制。
如何應(yīng)對(duì)AI詐騙?
企業(yè)開(kāi)發(fā)先進(jìn)反制技術(shù) 市民提高警惕、及時(shí)固定證據(jù)
作為普通人,我們?cè)撊绾螒?yīng)對(duì)深度合成騙術(shù)?
許勇建議,相關(guān)部門(mén)可以加強(qiáng)對(duì)群眾的宣傳教育,讓群眾了解深度合成技術(shù)的原理,從而提高對(duì)換臉詐騙的認(rèn)識(shí)和警惕性,“此外,可以建立有效的監(jiān)測(cè)和舉報(bào)機(jī)制,設(shè)計(jì)更加便捷的舉報(bào)途徑,對(duì)舉報(bào)信息進(jìn)行及時(shí)的調(diào)查和處理,保護(hù)舉報(bào)人的權(quán)益,鼓勵(lì)群眾積極參與舉報(bào)AI換臉詐騙行為。而要應(yīng)對(duì)深度合成的假新聞,我們既需要提高公眾對(duì)信息真實(shí)性的判斷能力,也要開(kāi)發(fā)自動(dòng)檢測(cè)和過(guò)濾假新聞的算法與工具?!?/p>
林舒源同樣認(rèn)為技術(shù)防御可行:“我們應(yīng)聯(lián)合各大科技公司開(kāi)發(fā)出更加先進(jìn)的人工智能技術(shù),包括面部識(shí)別、圖像反欺騙等技術(shù)工具對(duì)這些騙術(shù)進(jìn)行反制;同時(shí),還應(yīng)建立多重驗(yàn)證機(jī)制,確保用戶(hù)的信息不會(huì)被盜取或泄露?!彼硎?,加強(qiáng)公眾教育同樣重要,科普宣傳必須保持不斷更新以適應(yīng)變化?!安坏掷m(xù)總結(jié)過(guò)去的成功經(jīng)驗(yàn),還要不斷學(xué)習(xí)防詐新技術(shù),總結(jié)詐騙新套路,并推廣到社區(qū)、學(xué)校、線上線下等各個(gè)領(lǐng)域?!?/p>
對(duì)個(gè)體而言,林舒源認(rèn)為提高防范意識(shí)是減少受騙的關(guān)鍵。
首先是重視個(gè)人隱私保護(hù)?!笆忻駪?yīng)謹(jǐn)慎地處理個(gè)人敏感信息,不隨便在互聯(lián)網(wǎng)上留下個(gè)人信息,尤其是面部數(shù)據(jù);還要學(xué)會(huì)辨別虛假新聞和圖片,不輕信未經(jīng)證實(shí)的信息。如果發(fā)現(xiàn)虛假信息或被盜用后的個(gè)人隱私,應(yīng)及時(shí)舉報(bào)和處理,避免遭受更大損失。”
其次是提高警惕性?!霸诰W(wǎng)絡(luò)時(shí)代,即使是與我們非常熟悉的人也可能存在身份被盜或者冒充的情況。因此,一旦出現(xiàn)任何可疑的情況或者讓人感到不安的交流內(nèi)容,應(yīng)該高度警惕,多加甄別和多重驗(yàn)證,包括撥打第三方電話、面對(duì)面交流等多途徑核驗(yàn)對(duì)方身份?!?/p>
第三是加強(qiáng)網(wǎng)絡(luò)安全意識(shí)?!拔覀冃枰訌?qiáng)自身網(wǎng)絡(luò)安全意識(shí),確保各類(lèi)賬號(hào)安全,不隨意泄露個(gè)人信息、身份證號(hào)碼、銀行卡信息和驗(yàn)證碼等。同時(shí),避免在不可信的網(wǎng)絡(luò)平臺(tái)上下載未知來(lái)源的應(yīng)用程序,不打開(kāi)來(lái)路不明的郵件附件,以免被惡意軟件感染等?!?/p>
劉鎮(zhèn)東律師也提醒,市民若不慎被這類(lèi)AI合成技術(shù)所騙,或遇到一些可疑情形把握不準(zhǔn)的,一定要注意采取錄屏、錄音等方式固定證據(jù),并及時(shí)撥打110。
文/廣州日?qǐng)?bào)全媒體記者 武威
關(guān)于我們| 客服中心| 廣告服務(wù)| 建站服務(wù)| 聯(lián)系我們
中國(guó)焦點(diǎn)日?qǐng)?bào)網(wǎng) 版權(quán)所有 滬ICP備2022005074號(hào)-20,未經(jīng)授權(quán),請(qǐng)勿轉(zhuǎn)載或建立鏡像,違者依法必究。