當前位置: 華文星空 > 新聞

花十元就能讓照片開口「說話」?專家提醒:警惕AI悄悄「偷」走你的聲音

2024-06-15新聞
本文轉自【法治日報】;
AI換臉實施詐騙、AI翻唱明星歌曲、AI「復活」逝者……隨著AI技術的不斷發展,在網上「複制」他人的容貌、聲音已非難事,相關糾紛也屢見不鮮。
前不久,北京互聯網法院一審開庭宣判全國首例AI生成聲音人格權侵權案,明確認定在具備可辨識性的前提下,自然人聲音權益的保護範圍可及於AI生成聲音。AI生成聲音可辨識性的認定應綜合考慮行為人使用情況,並以相關領域普通聽眾能否辨識作為判斷標準。
接受【法治日報】記者采訪的專家認為,對於AI技術的研發和套用,需在保護個人權益的基礎上進行。應提高AI技術的安全性和可靠性,防止聲音被非法獲取和使用;還要加強行業自律,建立完善的監管機制,規範AI技術的使用行為,確保AI技術循著以人為本和技術向善的理念發展。
語音合成以假亂真
冒充熟人實施詐騙
記者在多款AI軟體中搜尋發現,有不少模仿知名藝人聲音的情況。去年,「AI孫燕姿」翻唱【發如雪】等歌曲,迅速走紅網路,多平台播放量破百萬,熱度居高不下。之後又出現一批其他「AI歌手」,其中不乏已故歌手的AI。隨後,大批AI轉譯作品湧現,如郭德綱用英語說相聲等。
據了解,「AI孫燕姿」使用的核心技術來源於Sovits4.0模型。它是基於AI技術的免費學唱軟體,使用者只需輸入歌詞和曲調,就可以精準模擬人聲,自動生成一首翻唱歌曲。
記者在某短視訊平台搜尋發現,關於此類技術的學習教程不在少數。有業內專家指出,目前,透過AI技術,可以實作對影像、聲音、視訊的篡改、偽造和自動生成,產生以假亂真的效果,一些不法分子很可能利用這類技術實施違法犯罪行為,危害社會公共利益。
其中,最為常見的手法是冒充熟人實施電信詐騙。不久前,江蘇句容的楊女士在收到自己「女兒」多條要求繳納報名費的語音後,向騙子帳戶轉賬3.5萬元。對此,辦案民警反復提醒:「遇到轉賬一定要慎之又慎,眼見不一定為實。」
「自然人的聲音也是人格權的一種,受民法典保護。任何人不得醜化、汙損或者偽造他人聲音,更不可以未經本人授權,模仿他人聲音獲利。」北京市京師律師事務所律師許浩說。
許浩介紹,和著作權不同,自然人的聲音有獨特性,在音色、語調以及發音風格等多維度,可辨識性較強,使用人工智慧工具對其加工,並進行傳播獲利,則構成對人格權的侵權。
「特定人的聲音可以產生一定經濟價值的內容,被侵犯不僅會造成人格損失,更可能造成經濟損失。」北京京本律師事務所主任連大有說,但實踐中這類案件通常面臨維權難的困境,存在取證難、舉證難、認定難等問題。
未獲得權利人同意
擅自使用構成侵權
AI「復活」逝者也是頗受爭議的話題之一。
記者在某電商平台上看到,不少網店專門從事AI「復活」逝者的生意,稱可以「讓動態照片開口說話,修復合成微笑客製懷念視訊」,一般標價為10元。但產品詳情頁中寫道,拍前請與客服溝通需求,具體價格根據難易程度決定。
客服介紹,簡單地讓照片動起來只需幾十元錢,稍微復雜點有表情的要上百元。如果需要采用AI換臉技術,根據相似度不同,價格在幾百元至上萬元不等,其聲音、相貌的相似度可達95%以上。
據了解,AI「復活」逝者是基於大數據分析、語音合成、機器學習等先進技術,透過對逝者生前的文字、音訊、視訊資料進行深度學習,創造出與其音容笑貌極為相似的虛擬形象。
在中國政法大學傳播法研究中心副主任朱巍看來,是否獲得權利人的合法授權,是判定是否構成聲音權益侵權的關鍵。近年來,AI語音合成技術的套用日益普遍,但編輯、使用某一自然人的聲音,需要當事人單獨同意。如果當事人已經去世,應當獲得相關權利人的授權,但此舉也有可能引發倫理問題。
朱巍認為,所謂的「復活」,本質上是利用深度合成技術生成所謂的虛擬人或者數位人,需要使用逝者的人臉、聲音等各種數據,配合自己的目的制作相應的內容。如果行為人為了悼念目的,「復活」自己的親人,原則上不構成侵權,但若是出於營利、博眼球、詐騙等違法目的,則可能構成侵權,甚至是刑事犯罪。
「如歌迷、粉絲出於對已故偶像的喜愛,用AI技術復活偶像,這種行為涉嫌違法。」連大有說,根據民法典第九百九十四條,死者的姓名、肖像、名譽、榮譽、私密、遺體等受到侵害的,其配偶、子女、父母有權依法請求行為人承擔民事責任;死者沒有配偶、子女且父母已經死亡的,其他近親屬有權依法請求行為人承擔民事責任。
連大有說,利用技術「復活」死者的行為還可能涉及智慧財產權問題,如「復活」已故偶像,往往會使用相關的歌曲、影視、著作等智慧財產權。相關的智慧財產權可能屬於其他公司、企業等,也需要獲得其授權才能使用。
明確侵權賠償責任
制定技術標準規範
對於AI語音合成技術背後的侵權風險,相關部門和網路平台已著手監管和規範,嘗試在技術發展和法律保障之間達到平衡。
2022年11月,國家網信辦等部門釋出【互聯網資訊服務深度合成管理規定】,要求任何組織和個人不得利用深度合成服務制作、復制、釋出、傳播法律、行政法規禁止的資訊;可能導致公眾混淆或者誤認的,應當在生成或者編輯的資訊內容的合理位置、區域進行顯著標識。
2023年7月,國家網信辦等部門釋出【生成式人工智慧服務管理暫行辦法】,此舉標誌著生成式AI有了專門性行政法規。
該辦法第七條規定,生成式人工智慧服務提供者應當依法開展預訓練、最佳化訓練等訓練數據處理活動,要求必須使用具有合法來源的數據和基礎模型;涉及智慧財產權的,不得侵害他人依法享有的智慧財產權;涉及個人資訊的,應當取得個人同意或者符合法律、行政法規規定的其他情形;采取有效措施提高訓練數據品質,增強訓練數據的真實性、準確性、客觀性、多樣性。
2023年9月,科技部等10部門印發的【科技倫理審查辦法(試行)】,列出了需要開展倫理審查覆核的科技活動清單,其中就包括具有社會動員能力和社會意識引導能力的演算法模型、應用程式及系統研發等。
與此同時,相關平台也在嘗試加強治理。2023年5月,抖音釋出關於人工智慧生成內容的平台規範暨行業倡議。對於創作者、主播、使用者、商家、廣告主等平台生態參與者在抖音套用生成式人工智慧技術提出要求,對於違規使用AI技術的行為,一經發現,平台將嚴格處罰。
連大有認為,AI領域的法治化仍有進一步細化的空間。可加快人工智慧方面的法律供給,推動國家層面生成式人工智慧規範的確立。對已有案例出現的疑難法律問題,要透過學術討論和司法實踐,逐步形成共識,總結確立法律適用規則。
「在AI技術不斷發展的背景下,要更加註重保護個人私密和聲音權益,同時也要規範AI語音合成技術的套用範圍和使用方式。」許浩認為,對於相關的公司和個人來說,應當加強對於AI技術的了解和套用,遵循法律法規和行業標準,避免侵犯他人權益。
朱巍呼籲,技術供應方應當重視技術倫理問題,制定統一的技術標準和規範,確保技術套用有底線。在法律監管方面,提升防控措施的精準性、透明性和穩定性。
連大有建議,在司法實踐中,要進一步細化相關法律規定,明確聲音權的範圍、侵權行為的認定標準以及賠償責任、承擔方式等。同時,還要加強宣傳教育,提高公眾對聲音權的認識和重視,營造全社會共同維護聲音權的良好氛圍。
作者|法治日報全媒體記者 溫遠灝