原標題:獨立調查丨換臉造“黃謠”、克隆聲音接“私活”,無中生有的AI侵權該如何防范?
海報新聞首席記者 解強民 記者 孫來彬 報道
“這些都是AI偽造的我的照片,我已經到派出所報案了。”今年以來,青島保時捷中心的銷售冠軍牟倩文深受困擾:有人利用AI(人工智能)技術,惡意將她的照片生成黃色視頻在網絡上傳播。在社交平臺上,牟倩文留下了“清者自清”的無奈聲明,呼吁網友不造謠,不傳謠。
近年來,隨著AI技術飛速發展,普通人駕馭AI工具的門檻越來越低,與之相伴的風險則急速上升。AI換臉、AI克隆聲音等侵權問題頻頻發生。
被AI“偷走”面孔、聲音后
他們損失了名譽、金錢和安全感
很長一段時間里,牟倩文的名字常跟保時捷一起出現在熱搜榜單上。2023年、2024年,她連續兩年賣出170輛保時捷汽車,成為保時捷中國北區銷冠。萬萬沒想到,這份靠業績賺來的名氣,卻成了她被造謠的“導火索”。
今年10月,牟倩文發現網上出現大量由AI惡意合成的黃色視頻,主角都長著一張她的“臉”。這讓她感到驚恐又憤怒。更過分的是,還不斷有人通過私信調侃她,給她的工作和生活帶來很大傷害。最終,她選擇了報警。
警方迅速展開調查。10月12日,青島市公安局李滄分局對涉事男子丁某某作出行政拘留五日的處罰。這已經是一年之內,牟倩文第二次被此類視頻困擾。連續被人造“黃謠”,這讓小有名氣的她感到心力交瘁。
而網絡“素人”韋先生也有類似的遭遇。今年5月,南寧市民韋先生收到一條奇怪的短信。短信中有一張“他”裸露上半身與一名裸體女性親昵的視頻截圖,并附有文字:“韋××,這是我最后一次聯系你了,我也不想你因此事悔恨終身,看到照片速回,過時不候!”
“我當時看到短信,腦子一懵,第一反應就是我的信息肯定被泄露了。”意識到可能是不法分子利用AI合成照片進行詐騙,韋先生第一時間報了警。
牟倩文、韋先生的遭遇并非個例。海報新聞記者注意到,隨著AI技術的進步,AI換臉、克隆聲音等侵犯公民名譽權和隱私權的現象時有發生。
今年年初,山西太原的配音演員武揚偶然發現,自己的聲音被偷偷克隆,用于廣州一家火鍋店的宣傳片配音解說。
武揚確實與該火鍋店有過合作。吊詭的是,他翻遍各種記錄,均顯示雙方合作發生在去年。那么,眼前這支最新的宣傳片中的“自己的聲音”是從哪兒來的呢?
他找到對方,很快得到答復:店家為了節省成本,直接將此前合作中的武揚的聲音“喂”給AI,經過學習后,幾乎“零成本”克隆生成了新的宣傳片配音。
“我真的非常氣憤。在未確認這是AI配音前,我甚至在懷疑自己,這到底是不是我配的音?是不是我自己忘記了?因為聲音真的太像了。”
從發現這件事到如今已過去半年,涉事火鍋店雖然刪除了相關視頻,但雙方始終未就賠償問題達成一致。在此期間,武揚又發現了另外兩條克隆自己聲音的商業視頻。作為從事配音工作的專業人員,他感到不寒而栗。
目前,武揚正在嘗試通過法律途徑維權。
AI濫用門檻有多低?
記者實測:2分鐘時間就能無中生有
更值得警惕的是,AI工具極低的使用門檻已擋不住各懷心思的使用者們——不管這心思是非法牟利,還僅僅是好奇。
“家中闖入流浪漢,速回!”10月17日晚,安徽一女子用AI工具生成了高度逼真的“流浪漢臥坐餐廳”等圖片,發給在外聚餐的丈夫,想測試其反應。沒想到,丈夫信以為真,當即報警求助。民警趕到現場,確認是一場虛驚。
記者調查發現,近期已有多地出現過因“AI整蠱”引發的鬧劇,有的引得親屬連夜從外地趕回,有的甚至引發整棟樓被逐層排查。民警提醒,此類行為若造成嚴重后果,可能觸犯法律紅線,涉事人員將面臨拘留罰款,嚴重的需承擔刑事責任。
曾經只出現在科幻片里的AI技術,如今的使用門檻到底有多低?海報新聞記者進行了現場實測。
以虛擬一段“流浪漢闖入家中”的視頻為測試目標,記者先拍攝了一張自家廚房的照片,將照片上傳到“可靈AI”“即夢”等AI軟件中,隨后輸入一段指令性的提示詞:一名流浪漢站在廚房門口,他的手里拿著一個饅頭。點擊生成按鈕,十幾秒后,一張流浪漢站在記者家中廚房的照片便出現在眼前。
“照片可以PS,有視頻才有真相。”抱著這樣的想法,記者繼續嘗試。
在生成上述圖片的基礎上,記者繼續點擊生成視頻按鈕,并加上了描述動作的提示詞:流浪漢吃了一口饅頭,走到鏡頭前,笑了笑。幾十秒后,任務完成,一段時長5秒的視頻就這樣生成了:流浪漢非常自然地咬了一口饅頭,往前走了幾步,露出微笑。視頻內容與提示詞的要求高度一致,甚至還能看到流浪漢走動時在門窗玻璃上映出的影子!
記者招呼同事們一起來分辨,幾個人瞪大眼睛看了半天,也沒找出明顯的破綻。整個“圖生圖、圖生視頻”的過程用時僅120秒,付費用戶還可以下載無水印的高清圖片和視頻。
傳統印象中,想要利用軟件偽造足以亂真的圖片、視頻,少不了高端昂貴的設備和精通代碼的程序員。然而現實擺在眼前:下載一個軟件,輸入一兩句話,就能辦到。
業內人士指出,AI生成工具已實現“單圖換臉”“場景植入”等功能,通過深度學習算法提取面部特征點及環境元素,可快速完成圖像融合和動態生成。在此背景下,部分平臺對訓練語料管理不嚴,且未落實合成內容標識要求,導致大量虛假信息以隱秘方式傳播。
用AI“管”AI是否可行?
AI治理辦法亟需迭代升級
AI技術正在重塑生產生活方式。從橫空出世的ChatGPT到無所不能的深度求索(DeepSeek),短短兩年,人們已迅速習慣了使用AI工具。然而,迭代升級的不僅有算法,還有與之相伴的濫用風險。
短暫的驚恐和憤怒后,武揚現在有了新的擔憂:以后他們(不法分子)會不會用我的聲音給我的家人朋友打電話,甚至去詐騙?
有業內人士認為,分辨一段視頻或聲音是否是經過深度合成,最好的辦法是用AI“管”AI。
人工智能大模型研究員潘季明表示,從技術角度來說,基于AI技術去識別AI內容是最快的方式。例如,專門的深度偽造鑒別模型可用于分析視頻和音頻中的不自然特征,如檢測眨眼頻率、面部肌肉運動生理一致性、音頻與純嘴唇同步率、光源一致性等等,從這些細微的物理或生理破綻中發現端倪。
北京市競天公誠律師事務所律師馬盛君指出,由人工智能引發的致損事件不斷增加,盡管現有的《民法典》中針對特定場景的侵權責任規則可以調整某些人工智能應用,但無法一般性地調整不同類型的人工智能侵權行為。他呼吁人工智能服務提供者,加強內容審核和審查工作,確保技術的合法合規使用。
面對愈演愈烈的AI濫用和侵權現象,監管層面啟動了多重應對措施。2025年4月,中央網信辦開展“清朗·整治AI技術濫用”專項行動。第一階段累計處置違規小程序、應用程序、智能體等AI產品3500余款,清理違法違規信息96萬余條,處置賬號3700余個。9月1日,《人工智能生成合成內容標識辦法》正式實施,其中明確要求服務提供者對合成內容添加元數據標識,杜絕“無標識傳播”。
今年早些時候,最高法院刑事審判第三庭庭長陳鴻翔在接受媒體采訪時表示,針對AI深度偽造帶來的新情況新問題,最高法將加強研究,會同相關部門及時出臺規范性法律文件或實施細則,完善法律適用。針對電信網絡詐騙犯罪這一AI侵權的重要表現形式,他指出,詐騙分子利用AI深度偽造新技術不斷翻新詐騙手法,防范打擊難度越來越大。對此,人民法院將積極應對挑戰,強化法律支撐,完善相關法律規范。
降低技術門檻原本是為了方便AI生產工具的普及應用,卻在不經意間,打開了濫用AI的“潘多拉魔盒”。隨著技術的發展,AI治理辦法也亟需一次迭代升級。
[來源:海報新聞 編輯:孫寶震]大家愛看