以前都說“有圖有真相”“有視頻有真相”……但自AI換臉工具出現(xiàn)后,這就要打一個(gè)大大的問號了。
前不久,一男子因AI換臉,10分鐘被騙430萬元。類似這樣的新聞引起了人們對AI換臉技術(shù)的警覺。
(相關(guān)資料圖)
據(jù)《每日經(jīng)濟(jì)新聞》記者了解,市面上已經(jīng)出現(xiàn)了開源的AI換臉軟件支持實(shí)時(shí)換臉,可以應(yīng)用于線上直播,甚至視頻通話場景。
中國科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副院長張衛(wèi)明教授團(tuán)隊(duì)曾參與大名鼎鼎的DeepFaceLab(一種利用深度學(xué)習(xí)進(jìn)行視頻換臉的工具)的開發(fā)。資料顯示,2020年,他帶領(lǐng)團(tuán)隊(duì)參加由Facebook、MIT等組織的全球最大的“深度偽造檢測挑戰(zhàn)賽(DFDC)”,獲得亞軍。
近日,張衛(wèi)明教授接受了《每日經(jīng)濟(jì)新聞》(下稱“NBD”)的專訪。談及開源換臉技術(shù),他認(rèn)為相關(guān)技術(shù)的科普非常重要,可以有效提升民眾的防騙素養(yǎng),“某個(gè)先進(jìn)技術(shù)如果只有很少的人知道和使用,大眾缺少認(rèn)知才更容易被欺騙。”
深度合成內(nèi)容的檢測要從被動轉(zhuǎn)向主動
NBD:您的多個(gè)在研項(xiàng)目與深度防偽檢測有關(guān),可以介紹一下相關(guān)人工智能安全領(lǐng)域的最新研究進(jìn)展嗎?
張衛(wèi)明:深度偽造檢測相關(guān)研究進(jìn)程,其實(shí)跟人工智能本身的技術(shù)進(jìn)展有很大關(guān)聯(lián)。近兩年,以GPT為代表的生成式人工智能迎來大爆發(fā)?,F(xiàn)在的深度合成,可以看成是生成式人工智能的一個(gè)分支。與諸多技術(shù)一樣,生成式人工智能也是一把雙刃劍,它可能被惡意使用。大家目前最擔(dān)心的事情之一,是生成式人工智能帶來的大量偽造信息。
以前我們主要做深度偽造檢測,現(xiàn)在我們關(guān)心的問題更寬泛一點(diǎn),包括了各種人工智能生成內(nèi)容的檢測?,F(xiàn)在的GPT越來越接近人類,可以被用來寫各種各樣的文案,包括釣魚郵件、虛假新聞等,同時(shí)還沖擊到了教育領(lǐng)域,比如現(xiàn)在學(xué)生的作業(yè),你無法斷定是不是機(jī)器寫的。所以一個(gè)很熱門的問題是,怎樣檢測這些文本是機(jī)器寫的還是人寫的。
目前,國內(nèi)外有很多團(tuán)隊(duì)在研究深度合成內(nèi)容檢測,但這些檢測方法主要是被動檢測,仍存在局限。如果能在部署模型階段,植入一些標(biāo)識,去做主動檢測,這個(gè)可能更重要。比如,能不能在生成內(nèi)容里嵌入水印,同時(shí)不影響內(nèi)容的質(zhì)量?目前關(guān)于人工智能生成內(nèi)容水印的研究,已經(jīng)變成了新的熱點(diǎn)。
其實(shí)我們國家已經(jīng)針對深度合成應(yīng)用密集出臺了相關(guān)規(guī)定,要求深度合成服務(wù)提供者應(yīng)當(dāng)對生成內(nèi)容進(jìn)行顯著標(biāo)記。
給文本做標(biāo)識是比較難的,但是這個(gè)問題確實(shí)很重要。我們注意到,OpenAI等公司也在做自己的水印技術(shù)用于機(jī)器文本鑒別。類似這樣的研究,正在變成新的熱點(diǎn)。
NBD:一方面,研發(fā)者可以添加水印,另一方面,一些懂技術(shù)的人,也可以去掉水印。由此可見,深度偽造與其檢測,就像一個(gè)對抗的循環(huán),您怎么看待這一現(xiàn)象呢?
張衛(wèi)明:確實(shí)存在這樣的情況,所有的安全都是一攻一防,安全技術(shù)都有它的邊界。所有的攻防,包括深度合成以及檢測的攻防,都是在動態(tài)博弈中發(fā)展,并不會說最終PK出一個(gè)結(jié)局來。
因?yàn)榘踩@個(gè)領(lǐng)域,有一個(gè)共識,就是沒有絕對的安全,安全永遠(yuǎn)是相對的。你做各種各樣的安全防護(hù),理論上來講,它都有可能被攻擊。一旦有新的攻擊出現(xiàn),那就要求我們?nèi)ハ胄碌难a(bǔ)救措施。安全理念的提升,也是在這種對抗過程中動態(tài)地發(fā)展。
前面提到國家出臺相關(guān)規(guī)定明確要求去打顯著標(biāo)識,其實(shí)那個(gè)是指可見的水印??梢娝∮幸粋€(gè)很大的問題,容易被人刻意擦除。相對來說,不可見水印有一定的優(yōu)越性,一個(gè)方面是它不可見,別人不知道這里面有水印;另一方面,即使知道有水印,也不知道水印在什么位置。
目前做水印技術(shù),會把信息藏在非常魯棒的特征空間上,來抵抗各種各樣的擦除。當(dāng)然它是有邊界的,比如說給視頻擦水印的人,他如果不計(jì)損失的話,可以把視頻質(zhì)量變得很低,確實(shí)可能把水印擦掉。所以這里面其實(shí)是一個(gè)博弈。
預(yù)防AI詐騙關(guān)鍵在于知道深度偽造技術(shù)的存在
NBD:我們了解到,您的團(tuán)隊(duì)開發(fā)了一種開源的AI換臉工具,旨在科普這種技術(shù),提升大家對深度合成的認(rèn)知水平。但有人認(rèn)為,一旦這種深度偽造技術(shù)普及之后,民眾可能對通話安全有所擔(dān)憂。對此,您怎么看?
張衛(wèi)明:我是這么理解的,大家目前最擔(dān)心的,其實(shí)是用生成式人工智能(比如深度合成)去實(shí)施各種各樣的詐騙。這個(gè)確實(shí)影響很大,但恰恰是因?yàn)檫@樣,更應(yīng)該去做這樣的科普、開源,讓老百姓真的體驗(yàn)到現(xiàn)在的技術(shù)發(fā)展到什么程度了。
以前我們說有圖有真相、有視頻有真相?,F(xiàn)在要有一個(gè)意識,就是有圖可能也不是真相,有實(shí)時(shí)的視頻,可能也不是真相。
對普通百姓來說,關(guān)鍵是要知道這種深度偽造技術(shù)的存在。因?yàn)樽龇雷o(hù)其實(shí)是萬變不離其宗的,不見得需要很高級的技術(shù),防傳統(tǒng)電信詐騙的手段就很有效。比如一個(gè)視頻通話里面,對方跟你聊到了金錢的事情,提到了轉(zhuǎn)賬,你可能就要提高警覺了,這可能是一個(gè)假視頻,需要多方核實(shí)一下。
所以,不知道有這個(gè)技術(shù)的存在才是可怕的。目前已經(jīng)有一些愛好者制作了很多樣例,你會看到各種社交平臺出現(xiàn)了大量這種技術(shù)的創(chuàng)造性應(yīng)用。大眾看到后就會理解,現(xiàn)在的技術(shù)可以做到什么程度。這在某種意義上是教育了更多的人,讓他們有這個(gè)認(rèn)知。我們無法阻止技術(shù)的進(jìn)步,讓民眾了解AI技術(shù)的發(fā)展現(xiàn)狀,才能更好地預(yù)防其潛在危害。
NBD:您認(rèn)為生成式人工智能未來最適合的應(yīng)用場景有哪些?
張衛(wèi)明:未來可能有很多正向的且比較有趣的應(yīng)用,最典型的是在娛樂領(lǐng)域,比如游戲、影視劇等等。
其實(shí)我在課堂上,曾經(jīng)讓一年級本科生去暢想未來這個(gè)技術(shù)可能會怎么應(yīng)用。與社會層面更多關(guān)注這一技術(shù)的風(fēng)險(xiǎn)所不同的是,年輕學(xué)生們認(rèn)為它的正面想象空間更大。
以影視娛樂為例,他們暢想可以去換臉體驗(yàn)演大片。或者在角色扮演型游戲中,通過實(shí)時(shí)換臉、VR等技術(shù),能以自己的聲音、自己的臉進(jìn)入到游戲里去。
還有就是心理治療。如果能用這些技術(shù),重現(xiàn)一個(gè)人或一個(gè)場景的話,可能對心理治療會很有幫助。再有就是在線教育。通過換臉等技術(shù),讓自己特別喜歡的老師,給自己講各種課,讓自己“聽得進(jìn)去”更“學(xué)得進(jìn)去”。
還有一個(gè)應(yīng)用是新時(shí)代的紅色文化宣傳、科學(xué)家精神宣傳。我們最近做了一個(gè)嘗試,發(fā)布了數(shù)字人錢學(xué)森,逼真度很高。錢老數(shù)字人發(fā)布以后,好評如潮,很多媒體都報(bào)道并轉(zhuǎn)載了相關(guān)視頻。這也讓我意識到,做科學(xué)家精神宣傳、紅色文化傳承,用這種方式可能更適合現(xiàn)在的年輕人,會達(dá)到很好的宣傳效果,是一個(gè)很好的正向應(yīng)用。
(文章來源:每日經(jīng)濟(jì)新聞)
標(biāo)簽: