近日,全國(guó)多地警方發(fā)布了多個(gè)“AI詐騙”的典型案例,引發(fā)大眾對(duì)于使用人工智能技術(shù)進(jìn)行詐騙的案件頻發(fā)進(jìn)行探討。揚(yáng)子晚報(bào)/紫牛新聞?dòng)浾咦⒁獾剑@些被騙典型案例中不乏有被騙上百萬(wàn)的受害者,并且詐騙手段也從以往的圖片、電話聲音造假,逐漸發(fā)展成視頻造假。網(wǎng)絡(luò)安全從業(yè)人員告訴紫牛新聞?dòng)浾撸?dāng)下AI技術(shù)的發(fā)展使得技術(shù)運(yùn)用門(mén)檻降低,容易被不法分子利用,而相應(yīng)防范手段卻顯得滯后,普通大眾更需要提高自身防范意識(shí)。
AI詐騙話題登上熱搜?
(資料圖)
AI換臉技術(shù)被引入詐騙
記者實(shí)際體驗(yàn)發(fā)現(xiàn)“質(zhì)量高,速度快”
網(wǎng)絡(luò)安全從業(yè)人員小鄭告訴紫牛新聞?dòng)浾撸S著人工智能技術(shù)的發(fā)展,不少例如AI換臉、AI語(yǔ)音合成的技術(shù)門(mén)檻已越來(lái)越低。小鄭介紹,早些年犯罪分子們就會(huì)通過(guò)使用PS等圖片合成軟件,在有經(jīng)驗(yàn)和技術(shù)能力的人員操作下,合成不少以假亂真的圖片用以實(shí)施詐騙。而如今,AI替代了合成技術(shù)人員,能夠在犯罪分子使用簡(jiǎn)單指令和操作下,自動(dòng)完成細(xì)致到毛發(fā)、光影都真實(shí)的合成圖片。并且AI的工作效率能短時(shí)間生成大量圖片合成視頻,這樣也就實(shí)現(xiàn)在視頻中以假亂真換臉。而音頻合成詐騙電話早些年就已出現(xiàn),甚至有犯罪分子通過(guò)騷擾電話的形式來(lái)錄取受害者聲音特征,最終合成音頻實(shí)施詐騙。
藝術(shù)工作者用AI進(jìn)行創(chuàng)作(圖源小紅書(shū)用戶)
在專業(yè)人員指導(dǎo)下,紫牛新聞?dòng)浾唧w驗(yàn)了多款A(yù)I換臉合成工具。其中一款國(guó)外軟件被稱為效果最好最自由的工具,本意是為了幫助藝術(shù)創(chuàng)作者提高工作效率,最后卻因功能強(qiáng)大和免費(fèi)開(kāi)放下載,成為當(dāng)前AI換臉違法行為的主要工具。記者在電腦上安裝好軟件后,使用網(wǎng)絡(luò)下載的明星臉部模型,加上網(wǎng)絡(luò)分享的指令,最快5秒就能生成一張?jiān)撁餍菢O為真實(shí)的照片,而通過(guò)指令的改變可以隨意切換場(chǎng)景、人物動(dòng)作、表情等細(xì)節(jié)。
記者同時(shí)還使用了自己平時(shí)20張左右的生活照提供給AI,嘗試對(duì)其進(jìn)行換臉訓(xùn)練,AI用幾小時(shí)時(shí)間就掌握了記者的面部特征,并生成一個(gè)帶有記者臉部信息的模型文件。運(yùn)用該模型,記者嘗試了正面、側(cè)面等多角度人物照片生成,結(jié)果幾秒內(nèi)導(dǎo)出的照片就已非常近似記者本人照片。小鄭告訴記者,AI的學(xué)習(xí)能力很強(qiáng),如果能有30張以上的人物露臉照片,就能生成很真實(shí)的圖片。
不少視頻app中帶有換臉功能?
紫牛新聞?dòng)浾咴谑謾C(jī)軟件下載程序中搜索“AI換臉”,可以搜索到數(shù)十種各類換臉軟件,其中不少的介紹都包含“一鍵視頻換臉”“一鍵換裝換發(fā)型”等宣傳。而一些主流的短視頻軟件中,也出現(xiàn)了植入的換臉特效。記者使用發(fā)現(xiàn),只要上傳自己的一張照片,再配合軟件給出的一些影視片段、網(wǎng)絡(luò)視頻,就可以自動(dòng)生成惟妙惟肖的換臉視頻。
視頻中除了臉型變化不大,人物的五官基本都被替換,而且色調(diào)、光線等方面均沒(méi)有什么違和感,只是在側(cè)臉時(shí)會(huì)露出一些“破綻”,以及臉部有時(shí)會(huì)出現(xiàn)一些特殊的抖動(dòng),這些軟件制作的換臉視頻以?shī)蕵?lè)為主,細(xì)看還是很難亂真。不過(guò)據(jù)小鄭介紹,目前所有的軟件都還需要一定時(shí)間的計(jì)算和生成,想做到實(shí)時(shí)的“換臉”對(duì)硬件要求很高。
各類軟件的層出不窮,也帶來(lái)不少法律問(wèn)題。近期,上海一家網(wǎng)絡(luò)公司就因換臉手機(jī)APP新增多份肖像權(quán)糾紛裁判文書(shū)。據(jù)悉,該公司未經(jīng)原告許可擅自使用其影像作品,并制作融臉視頻模板,提供給付費(fèi)會(huì)員使用。多位網(wǎng)紅起訴該公司,法院認(rèn)為,涉案軟件生成視頻除臉部特征以外,動(dòng)作、背景、視頻角度與原告發(fā)布的視頻均高度雷同一致,部分視頻存在明顯的“換臉”痕跡,系利用信息技術(shù)手段偽造等方式侵害原告的肖像權(quán)。
如何識(shí)別和預(yù)防AI換臉
提高防范意識(shí)減少信息暴露是關(guān)鍵
紫牛新聞?dòng)浾咦⒁獾剑贏I換臉圖片、視頻層出不窮后,如何鑒定相關(guān)內(nèi)容真假成為了不少網(wǎng)友討論的熱點(diǎn)。一名現(xiàn)常使用AI進(jìn)行寫(xiě)真創(chuàng)作的設(shè)計(jì)師告訴記者,AI制作的真人照片與視頻如今還存在一些沒(méi)有完善的地方,例如AI生成的人眼神會(huì)比較奇怪,常出現(xiàn)瞳孔不自然,呆滯無(wú)神的情況。此外,一些人物身體細(xì)節(jié)也是容易出錯(cuò)的區(qū)域,例如手部手指的不自然、人體比例的不協(xié)調(diào)等。但該設(shè)計(jì)師表示,這些情況可能在隨著AI技術(shù)快速進(jìn)步而逐漸得以解決。
網(wǎng)友分享經(jīng)驗(yàn):AI生成圖手部與眼睛容易存在問(wèn)題?
與此同時(shí),也有不少平臺(tái)開(kāi)始嘗試?yán)眉夹g(shù)手段識(shí)別AI生成圖片。記者在抖音、嗶哩嗶哩、小紅書(shū)等平臺(tái)看到,一些看似真實(shí)的照片被識(shí)別判定為AI生成內(nèi)容,使用眼神、手部等細(xì)節(jié)觀察法,確實(shí)也能發(fā)現(xiàn)照片為假。不過(guò)類似平臺(tái)的技術(shù)手段依然存在不準(zhǔn)確的問(wèn)題,不少作者明確注明AI創(chuàng)作的情況下,判定系統(tǒng)未能識(shí)別成功。
平臺(tái)通過(guò)技術(shù)手段來(lái)提醒AI生成內(nèi)容?
除了平臺(tái)可以加大對(duì)AI生成內(nèi)容的管控提醒下,個(gè)人也需提高警惕性,例如在碰到涉及轉(zhuǎn)賬、支付等情況時(shí),通過(guò)特殊的問(wèn)題提問(wèn),指定行為不同角度的視頻要求等形式來(lái)確定對(duì)方身份,同時(shí)要求對(duì)方用手指在臉前比劃看是否有穿幫。
多位AI圖像技術(shù)使用者告訴記者,大眾在使用社交軟件時(shí),一定要盡可能少發(fā)布個(gè)人正面照片或視頻,不提及年齡、工作、所在地等內(nèi)容,減少個(gè)人信息的暴露。同時(shí)對(duì)于網(wǎng)上信息,一定要留有疑心,多方求證,不輕易相信任何一個(gè)涉及個(gè)人財(cái)產(chǎn)的恐嚇信息,及時(shí)通過(guò)報(bào)警等合法有效渠道保障自身權(quán)益。
揚(yáng)子晚報(bào)/紫牛新聞?dòng)浾?劉瀏 見(jiàn)習(xí)記者 陳燃
校對(duì) 陶善工
熱門(mén)
聯(lián)系我們:435 226 40 @qq.com
版權(quán)所有 重播新聞網(wǎng) www.porb.cn 京ICP備2022022245號(hào)-17