国产成人综合在线视频-国产精品美女久久久久久-国产免费人成在线看视频-国产午夜精品一区二区

廣西新聞網 > 首頁欄目 > 經濟 · 生活 > 創新 > 正文

倫理與治理|AI時代的身份危機——我的臉,誰做主?

2026年01月27日 18:05 來源:廣西云-廣西日報 記者 陶昌順 實習生 唐馨怡 編輯:古秀芳

新聞眼某帶貨直播間內,“溫崢嶸”正熱烈地推銷護膚品,而真實的演員溫崢嶸正在劇組拍戲。盡管溫崢嶸多次公開發布聲明打假,但冒用其形象的AI直播行為不僅未收斂,反而愈演愈烈,多個帶貨直播間出現“溫崢嶸”。
溫崢嶸的遭遇并非個例,越來越多名人甚至普通人的形象、聲音被非法利用,背后是技術濫用對權利邊界的侵蝕。當AI技術可以輕易“復制”他人面孔,肖像權這一基本人格權便陷入了前所未有的危機。我們該如何捍衛每一個人的“數字身份”?如何在擁抱AI創新紅利的同時,守住權利不可侵犯的底線?

“你是溫崢嶸,那我是誰?”演員溫崢嶸自曝刷到AI盜播自己的直播間,上前質問竟被秒拉黑。視頻來源:央視法治在線

厘清侵權亂象:AI肖像權的現實困局

實際上,利用AI冒充名人早已不是新鮮事。劉濤、全紅嬋、張文宏等名人的聲音與形象均曾被偽造用于直播。

不久前,OpenAI的Sora 2平臺推出了一項名為Cameo(客串)的新功能,允許用戶將本人或授權對象的形象與聲音嵌入視頻中。技術開發者在設計時未將已故名人納入倫理防護機制,允許用戶生成其虛擬形象。這一設計缺陷,讓該功能一經發布就迅速引發爭議。我們面臨的不只是侵權問題,還有現實與虛擬界限模糊帶來的信任危機。

個體權益的邊界,是技術創新絕不能觸碰的紅線。溫崢嶸等人的困境,是技術濫用下個體權利失守的縮影。法律專家指出,此類AI生成內容即使在小范圍傳播也已構成侵權。但換臉視頻往往由匿名者制作,并且能夠在社交媒體上迅速廣泛傳播,這使得侵權主體難以溯源。加之,許多參與其中的當事人由于并不知曉分享的信息系偽造,這種復雜的情況往往導致案件難以追責,受害者的權益難以得到有效維護。

利用AI仿冒名人進行直播帶貨,實為欺詐性營銷,直接損害消費者權益,破壞了公平競爭環境。同時,各內容平臺對AI生成內容的審核標準與力度不一,部分平臺甚至“暫未進行風險提示”,還有一些AI模型廠商提供的“付費去水印”服務,為侵權提供便利。

“未經允許以非法目的,通過AI或深度偽造技術改變他人面部、聲音或換臉,可能侵犯肖像權、聲音權!北本⿴煼洞髮W法學院教授劉德良表示,若用于廣告宣傳、直播營銷,還可能構成虛假宣傳。

從法律上看,此類“賽博造假”行為涉嫌侵犯肖像權、名譽權等,并構成虛假宣傳。然而現實中,侵權與維權成本嚴重失衡,少數案件維權成功,也往往耗時一年以上。正如張文宏因找不到明確追責對象而放棄維權,全紅嬋家人因“告不過來”只能頻繁辟謠。

王靖/制圖

辯論治理優先級:創新與保護的平衡之道

面對AI肖像侵權的多重困境,行業內關于治理優先級的分歧日益凸顯,核心聚焦創新與保護的失衡問題。

當前,圍繞AI肖像技術的爭議,已不限于個案對錯,而是技術迭代與制度建設之間的“速度差”問題。面對這種“速度差”,我們應當優先加速哪一方的進程以控制風險?是優先“疏導”,相信技術自治與市場機制能在動態發展中找到平衡;還是優先“剎車”,強化制度約束以劃定不容逾越的紅線?

正方認為,AI肖像生成技術是創造性工具的革命,不應因潛在濫用而被過度限制,而應鼓勵技術自治,在動態發展中完善規則。

以Sora 2為代表的新一代模型大幅降低了專業級視覺內容創作的門檻。絲滑流暢的動作,更符合現實世界的物理引擎,Sora 2在運動、物理智商、身體力學領域達到業界頂尖水平,可精準呈現自然且細膩的動態效果。這意味著,限制這項技術,在一定程度上阻礙了技術賦能所帶來的藝術表達自由。

“未來,隨著AI技術的持續發展,想要實現‘換臉’,用戶所需要的動作會越來越少!北本┼]電大學網絡空間安全學院教授周琳娜提到,AI生成的視頻逼真程度和豐富程度,以及人們的認可程度都會越來越高。

技術產生爭議,是技術普及的必然進程,可以通過技術迭代與機制設計來解決。根本的解決之道,不應是“因噎廢食”地禁止技術,而是持續開發更強大的底層防護技術。健康的AI生態還需要成熟的用戶和市場,這要求一方面提升公眾的AI素養,使其學會辨別真偽,另一方面鼓勵行業自律。部分藝人粉絲群體已自發發布聲明,抵制將藝人形象“投喂”給AI制作親密合影。平臺也可以通過提示、科普等方式教育用戶。

反方認為,在AI可能引發的社會秩序問題面前,必須堅持治理先行,為技術創新劃定明確的紅線。技術的狂飆不能以犧牲人的基本權利為代價。必須通過法律厘清AI生成技術的邊界,為公民的基本人格權豎起堅實的防護墻。

必須建立“事前準入”的強制標準。Sora 2模型初期采用的“選擇退出”規則,將維權重擔拋給版權方,后續又迫于壓力轉向“選擇準入”機制,恰恰說明外部強制約束的必要性。這要求通過立法與監管,將“事前明確授權”“不可篡改的數字水印”及平臺嚴格審核等轉化為全行業統一的強制性標準。同時,平臺作為關鍵一環,有義務有責任嚴格落實AI內容標識規則,建立侵權賬號黑名單共享庫。

“應推動有關部門完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引。”北京互聯網法院副院長孫銘溪認為,面對濫用AI合成技術問題,規范技術應用的“最優解”是明確開發者、服務提供者、使用者等各類主體的權利、義務與責任邊界。

借鑒全球經驗:AI監管的協同框架構建

單一的治理思路難以破解困局,放眼全球,不同國家和地區已探索出多元治理模式,為構建協同框架提供了借鑒。不同法域基于其法律傳統和產業利益,對AI生成內容的監管采取了差異化策略,但核心都指向了權責界定這一根本問題。

歐盟《人工智能法案》確立了基于風險的嚴格分級監管體系,將生物識別分類等應用列為“高風險”并施加嚴厲限制。法案采用“雙層監管”策略,對所有通用人工智能模型提出透明度與版權合規要求,并對具有“系統性風險”的強大模型增設模型評估、對抗性測試等更嚴格監管義務。它明確要求模型提供者尊重版權法,并允許權利人“選擇退出”,同時通過設立監管沙盒,在強力規制與培育創新之間尋求平衡。

中國的AI治理遵循“發展與安全并重、促進創新和依法治理相結合”的原則。以《生成式人工智能服務管理暫行辦法》為基礎,2025年實施的《人工智能生成合成內容標識辦法》構建了“全鏈條可溯源”的管理新范式。該辦法建立了“顯式標識”與“隱式標識”相結合的雙重標識體系,并明確了從內容生成、傳播到應用程序分發的全流程主體責任。這體現了通過“技管結合”構建可信生態,在規范中推動發展的治理思路。

“鑒于AI技術的復雜性和應用的廣泛性,AI治理需要實現跨領域協同推進。需要監管持續加碼、平臺強化責任,更需要網民參與!敝袊ù髮W副教授、中國廣告協會法律與道德委員會專家朱巍建議,應加強對合成內容的標識與溯源,推動平臺、監管部門及技術提供商之間的數據共享與標準共建。

縱觀全球,治理模式正從單一環節向涵蓋事前預防、事中監管、事后追責的動態綜合體系演進。技術是工具,其價值在于人的正確運用。AI時代的肖像權保衛戰,本質是人與技術的賽跑。面對AI既能創造美好,也能制造亂象的現實,我們不能簡單選擇“完全放開”或“一禁了之”。真正有效地治理,需要為技術劃出清晰的倫理紅線,同時建立動態更新的規則體系。只有當法律、技術和公眾意識共同形成合力,我們才能在享受技術紅利的同時,守住最根本的底線:在這個真假難辨的世界里,每個人都能確知“我是我”。

《廣西日報》1月28日4版版面截圖。

掃一掃在手機打開當前頁
>>更多精彩圖集推薦