利用生成式人工智能(AI)制造的虛假圖片、音頻和視頻信息等“深度偽造”內容正在快速傳播,被用來騷擾他人、詐騙金錢,甚至干擾選舉。
英國《新科學家》網站近日報道,美國OpenAI公司的文本—視頻模型Sora橫空出世,讓人們能更快捷、更廉價地制作出視頻,事實與虛構的分界線也愈加模糊,進一步加劇了人們對“深度偽造”內容的憂慮,擔心其引發虛假和錯誤信息泛濫。如何預防和阻止“深度偽造”內容誤導大眾,已成為擺在各國政府和科技巨頭面前的重大難題。
“深度偽造”愈演愈烈
2014年,隨著生成對抗網絡的發展,第一波“深度偽造”內容開始獲得關注。生成對抗網絡是一種讓AI模型相互對抗的技術,這種技術不斷發展,可逐步提高虛假圖片的真實性。但這一代“深度偽造”內容制造不僅費時,而且需要創作者具備AI方面的技術專長。
美國紐約州立大學布法羅分校計算機與電子工程系教授呂思偉指出,在這段時間,制作一段30秒的視頻通常需要數周的數字后處理工作和大量計算能力。盡管如此,視頻的真實性仍差強人意。
但在過去兩年間,新型AI技術的快速商業化使“深度偽造”內容很容易大批量生產。任何具備文本編寫能力的人,都可使用DALL-E、Stable Diffusion等工具,在幾秒鐘內創建出圖像。還有一些工具,能讓用戶通過上傳或錄制音頻樣本來克隆語音。
有研究發現,2023年網上有超過9.5萬個“深度偽造”視頻,比2019年增長了550%。有研究顯示,以對特定受眾造成沖擊力為目的的虛假信息傳播非常容易,速度可達真實信息傳播速度的6倍。
虛假視頻影響選舉
“深度偽造”內容也通過錯誤信息和虛假信息對選舉構成越來越大的威脅,使選舉更加復雜化。
去年2月,美國芝加哥市長初選前夕,社交媒體上流傳一個模仿候選人保羅·瓦拉斯的聲音發表不實陳述的視頻,聲稱“警察可隨意射殺嫌疑人”,并呼吁削減警察預算。在瓦拉斯向社交媒體平臺發出投訴之后,社交媒體刪除了這段視頻,但該視頻在下架前已經被瀏覽了數千次。
今年1月底,新罕布什爾州檢察長辦公室發布一份聲明稱,一項機器人電話活動使用了由“深度偽造”技術制作的模仿拜登總統的聲音,敦促人們不要在該州1月23日的總統初選中投票。該事件迅速在美國引起了廣泛關注,并激發了關于AI“深度偽造”對大選可能產生影響的討論。
去年11月發布的一份民調結果顯示,在2023年10月參與調查的美國成年人中,有58%的人認為“AI將對2024年美國大選造成影響”,這一數字較2022年8月增長了5個百分點。此外,英國、印度、尼日利亞、蘇丹、埃塞俄比亞和斯洛伐克等國去年都發現了據稱利用AI制作并在網絡上傳播的虛假政客視頻。
亟待采取監管措施
《新科學家》網站在報道中指出,很多人已經感受到了“深度偽造”可能帶來的巨大影響,但眼下的預防措施還很不夠。
歐盟的《數字服務法》要求科技平臺識別和標記AI生成的內容,美國也正在制訂類似的標準。此外,目前已有多個國家以及美國至少有6個州將創建或傳播有害的“深度偽造”內容確定為非法行為。
科技平臺需要承擔起阻止“深度偽造”浪潮繼續奔涌的最大責任。據《金融時報》報道,亞馬遜、谷歌、元宇宙平臺、微軟、TikTok和OpenAI等20家科技公司2月16日在慕尼黑安全會議期間表示,將共同努力打擊旨在誤導選民的內容制作和傳播,并針對這些內容以“迅速和適當”的方式采取行動。比如,在圖片中添加水印,以明確其來源以及是否曾被篡改。
目前,科技行業已經采用了“內容來源和真實性聯盟”(C2PA)的標準,該標準將用數字內容的來源和創建者的信息對數字內容進行編碼。今年2月初,元宇宙平臺公司宣布將在其社交媒體平臺上標記AI生成的圖像;谷歌公司表示將為其生成式AI工具集成C2PA水印系統,OpenAI也作出了類似承諾。
不過,有專家指出,添加水印的方式可能會有所幫助,但它們并不能阻止不懷好意者使用開源AI工具,也沒有解決那些飽受“深度偽造”影響的人保護其隱私權的問題。