人工智能,也就是“AI”,這個詞一直非常火熱,隨著科技浪潮席卷而來,不斷有一些AI技術走進大眾視野,比如“AI換臉”“AI換聲”等:視頻中的角色可以變成你想替換的任何人;比如一些生成式AI,你只需要輸入一些提示詞,它就能幫你寫作、畫圖......不過,AI技術為人們生產生活帶來便利的同時,也會產生一些法律方面的風險。
人工智能亦會產生法律風險
記者在街頭采訪了解到,一些市民平日里會關注人工智能相關的話題,有的還會利用一些AI軟件來幫助自己提高工作和學習效率。而同時,對于此類應用,人們也有一些擔憂。
AI時代下,耳聽未必為真、眼見未必為實,你接收到的文字、圖片、音視頻信息可能是AI技術的產物。
畫面中可以看到,視頻中和演示人員進行視訊的男生面部表情非常自然,看不出有什么蹊蹺之處。不過實際上,這并非他的真實樣貌。
人工智能安全技術從業人員 張天奕:大家看到的畫面其實都是通過AI實時換臉,經過修改篡改后呈現出來的一個效果。
演示人員介紹,要想制作一個換臉人物的模型,目前通過一張照片就能夠實現。但如果想要達到非常逼真、自然的效果,則需要換臉人物各個角度的圖像,在萬量級左右。
AI技術在各領域應用
可能產生侵權糾紛
這種AI合成技術在影視制作、廣告營銷、社交娛樂等領域廣泛應用,人們日常中也能接觸到一些操作簡易的“AI換臉”等應用軟件,不過這給大家帶來了新鮮體驗的同時,也可能會產生人格權方面的侵權糾紛。
中國政法大學傳播法研究中心副主任 朱巍:主要是對人格權領域產生了巨大的安全隱患。比如說一個人他的形象,他的聲音在互聯網上通過各種渠道發布出來了。未經他的允許,別人把他的聲音,把他的圖像,把他的肖像做出了深度合成。有的時候是為了詐騙使用,有的時候就是為了純粹的娛樂,有的時候是為了惡搞,有的時候是為了發布一些虛假信息。
專家認為,未經授權使用他人形象進行AI合成,可能會侵犯他人的肖像權、名譽權、隱私權等。此外,AI合成技術降低了虛假視頻的制作門檻,這也可能給不法行為人可乘之機——比如用來炮制、傳播虛假信息以及詐騙等。
人工智能安全技術從業人員 朱萌:我覺得最大的風險其實還是隱私的泄露,比如說一些不法分子用你的照片合成視頻去做一些詐騙的行為。其實你身邊的人,或者接到照片視頻的人,其實很難去判斷到底是真的還是假的。
中國政法大學傳播法研究中心副主任 朱巍:現在確實已經出現了利用生成式人工智能,搞的這種深度合成的精準詐騙。兩人都已經視頻通話了,發現對面那個人長相、聲音、說話的語氣跟另外一個人非常像,結果是騙子用AI合成的,這就導致當事人被騙了。
陜西西安警方就偵破了一起類似的案件,2023年11月2日,財務人員張女士收到了老板發來的信息,讓她轉賬186萬元到一個指定賬戶。并且收到信息沒多久,她還接到了老板打來的視頻通話。
轉賬之后,張女士按照往日的習慣將電子憑證發到了他們公司的一個內部群里。然而出乎意料的是,群里包括和她視頻的老板在內的不少人都對這筆轉賬感到很奇怪。
意識到被騙的張女士連忙報警求助,西安市公安局大明宮派出所的民警迅速行動起來,核查涉案賬戶的同時,對接反詐中心、聯系相關銀行進行緊急止付,最終保住了被騙資金156萬元。
西安市公安局未央分局大明宮派出所民警 丁鼎:然后我對她的工作電腦也進行一個簡單的檢查,初步判斷這是可能她前幾天點擊一些釣魚網站,電腦中了病毒,隨后被電詐團伙竊取一些信息,最后用一些AI技術跟她微信視頻,最后騙取公司的財物。
什么是生成式AI
是否受法律保護
警方提醒,面對資金往來或是可能泄露個人信息的情況,還需要多方核實。自從2022年底,聊天機器人程序ChatGPT橫空出世,生成式AI引發眾人關注。利用這一類生成式AI,你可能通過輸入提示詞就得到你想要的文字、圖片等內容。不過,這種新穎的創作方式也帶來了知識產權方面的爭議:人們利用這種越來越“聰明”的AI生成的內容,還是“原創”作品嗎?受到法律保護嗎?
人工智能安全技術從業人員 朱萌:那就是具備文本、圖片、音頻、視頻等內容生成能力的大模型或者相關的技術。所有這些技術的總和,我們都可以叫它生成式人工智能。它的生成能力還是非常巨大的,可以極大地提升生產力。
專家介紹,生成式AI利用復雜的算法、模型和規則,從大規模數據集中學習,并生成文本、圖片、聲音、視頻等多種類型的內容。在文本內容生成、藝術創作與設計、音頻處理、游戲開發、藥物研發等領域有著廣泛的應用前景。
人工智能安全技術從業人員 朱萌:像珠寶設計、電線電纜設計等等這種藝術設計的領域,或者包括一些市場文案的制作,這些都是在感性領域,生成式人工智能可以做得非常好。因為這些領域沒有標準答案,它的答案是多重的,不是唯一的。另外一個就是像代碼生成這樣的理性領域,它的結果它的功能就很容易被判別,所以也非常適用于生成式人工智能。
可以說,生成式AI讓人們的創作更加便捷,不過隨之而來的,也是法律界飽受爭議的話題,那就是,利用AI生成的內容,構成作品嗎?受到著作權法的保護嗎?
2023年11月,北京互聯網法院審結了一起“AI文生圖”著作權案件,李先生使用AI繪畫軟件生成了一張AI圖片,之后他發現,這張圖片被一位劉女士去掉署名水印、擅自發布在網絡文章里。李先生認為,劉女士的行為侵犯了他享有的署名權和信息網絡傳播權,于是將對方訴至法院,要求其賠償經濟損失5000元,并賠禮道歉。
北京互聯網法院綜合審判一庭副庭長 朱閣:原告因為使用的這種繪畫大模型,跟以往的繪畫工具就有很大的不同。咱們以往的繪畫工具,你還是要去畫線條、色彩、造型,還是一個動手去畫的過程。但是這個工具它就比較智能,通過輸入提示詞、設置一下參數、時長線條和色彩,它就自動完成,它比以往用的任何的繪畫工具都要更智能。
法院審理認為,涉案圖片符合作品的定義,屬于作品,并且它是以線條、色彩構成的有審美意義的平面造型藝術作品,屬于美術作品。在原告所使用AI繪畫軟件設計者不主張對輸出內容權利的情況下,涉案圖片是基于原告的智力投入直接產生,且體現出了原告的個性化表達,因此原告是涉案圖片的作者,享有涉案圖片的著作權。
北京互聯網法院綜合審判一庭副庭長 朱閣:被告的行為,一個是去掉了圖片的署名水印,還有一個在互聯網上傳播,是落入到了中國著作權法上規定的署名權和信息網絡傳播權的控制的范圍的,所以我們認為侵權是成立的。
法院判決被告向原告道歉
并賠償經濟損失
北京互聯網法院判決被告劉女士在社交媒體平臺道歉,并賠償李先生經濟損失500元,駁回原告其他訴訟請求。
北京互聯網法院綜合審判一庭副庭長 朱閣:隨著這種技術的發展,我們的傳播渠道就是不斷地拓展。我們原來可能就是拿筆去畫,后來我們有了照相機,我們有了手機,后來我們有了繪圖的軟件,現在我們有了更智能的軟件。在這個過程中人的智力投入就是越來越少的,但是這并不妨礙我們繼續使用著作權法,來保護這樣的創作,保護這樣的傳播。
《中華人民共和國著作權法》第三條規定,本法所稱的作品,是指文學、藝術和科學領域內具有獨創性并能以一定形式表現的智力成果。專家認為,判斷利用AI軟件生成的內容是否構成作品、受到著作權法的保護,其中,“智力成果”及“獨創性”這兩個需要考量的要素是最關鍵也是最難認定的。
中國政法大學傳播法研究中心副主任 朱巍:只要是屬于智力成果,都可以歸納到著作權的范圍,另外一點,這個智力成果有可能是人產生的,有可能是機器產生的。
中國人民大學法學院教授、知識產權法教研室主任 萬勇:但是雙絞機在這個機器生成的過程當中,它又有人的參與。什么樣的情況下具有獨創性,以及在什么樣的情況下它是智力成果,這個法律并沒有明確地給出規定。這個也是目前AI生成的內容是否具有著作權、是否能夠成為作品,成為一個世界性、具有爭議性問題的原因所在。
此外,生成式AI在開發階段也面臨著侵權的爭議。當地時間2023年12月20日,11名美國作家在紐約曼哈頓聯邦法院起訴美國人工智能公司“開放人工智能研究中心”OpenAI和微軟,指控其濫用他們的作品來訓練ChatGPT——這是由OpenAI開發的基于大語言模型的聊天機器人程序。這些作家向法庭表示,OpenAI在未經許可的情況下,從互聯網上批量復制了他們的作品,并將這些作品納入ChatGPT的訓練數據里,侵犯了他們的作品版權。
他們還表示,由于微軟公司“深度參與”了訓練和開發人工智能模型,也應承擔侵權責任。作家們向法院提出了金額不詳的賠償要求,并要求法院下令這些公司停止侵犯版權。
中國人民大學法學院教授、知識產權法教研室主任 萬勇:AI在設計的過程當中,或者換句話說機器學習的過程當中,它需要使用大量的享有版權的內容,它才可以不斷地去完善。或者換句話說,那么AI使用享有版權的內容構不構成侵權,那么這個也是目前法律上面一個具有爭議性的問題。
北京互聯網法院也受理了一起類似的案件:4名繪畫創作者將某社交平臺公司訴至法院,原因是,該公司推出了一款AI繪畫圖片生成模型,其生成的圖片,畫風及一些元素與一些畫師的作品相似。畫師們認為,公司方面涉嫌用他們的作品提供給AI模型進行學習并生成高度相似的作品,侵犯了創作者的合法權益。
如何化解AI所帶來的法律挑戰
如今,人工智能越來越多地融入我們的生產生活中,那么,要如何化解人工智能所帶來的法律挑戰?又該如何運用法治的力量保障人工智能產業健康發展?
對外經濟貿易大學數字經濟與法律創新研究中心主任 許可:事實上我們看到新的技術的出現,誠然改變了侵權的方式和表現,但是對于人的侵害的事實以及人的權利本身并沒有改變。使用者出于一些不同的意圖去使用它所帶來的問題,其實在傳統的法律中都有很多的表述,無論是對于我們講的知識產權,對于我們的人的肖像權、個人信息權利,還有這種名譽權,我們的民法典、個人信息保護法都有所保護。
專家認為,對于人工智能帶來的一些新的侵權形式,一方面,現行法律仍然可以作為處理和解決糾紛的依據;另一方面,相關部門也在陸續出臺法律法規,從而更好地預防各種侵權風險,有效地保障民事主體的合法權益,促進人工智能產業的健康發展。比如,2022年12月,國家網信辦等三部門發布《互聯網信息服務深度合成管理規定》,旨在加強互聯網信息服務深度合成管理。2023年7月,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》,在鼓勵創新與發展的同時,進一步完善人工智能管理體系。
對外經濟貿易大學數字經濟與法律創新研究中心主任 許可:那么最重要的一個表現就是開創了分層次的治理。分層次的治理指的是我們要根據相關主體在整個行業中的位置和功能設定不同的義務和責任。對于生成人工智能來說,它是一個非常復雜的生態。在生態之中既有技術的提供者,又有服務的提供者,又有普遍的用戶,又有非常多的產業的各方參與者。如何確定好各方的義務、責任、權利,恰恰是這部法律非常重要的一個立法上的創新。
專家認為,人工智能的發展為社會進步帶來了前所未有的推動力,同時也伴隨著一系列亟待解決的法律風險。正因如此,在推動人工智能產業高速發展的過程中,確保其安全性、可控性顯得尤為重要。如何去平衡好發展與安全的關系,引導科技向善而行,這將是一個具有挑戰性的議題。
對外經濟貿易大學數字經濟與法律創新研究中心主任 許可:但是這么一種發展和安全的平衡,不只依賴于我們的監管者、我們的立法者。它依賴于各個產業的共同參與,依賴于我們每個人的共同參與。塑造出一個既開放有活力,同時又有秩序的人工智能生態,我想這是未來需要進一步做的工作。
法治熱評:AI技術快速發展 需有關部門完善法規
近年來,人工智能產業快速發展,隨著AI技術在越來越多領域的應用,也衍生出一系列的法律風險。如何協調這種技術的發展與法律邊界之間的關系,是一個充滿挑戰的議題。面對日新月異的數字化技術,一方面,需要秉持科技向善的原則,盡量避免侵權風險、不利用技術從事違法犯罪行為,另一方面,也需要有關部門完善法律法規,加強引導和監管,新技術安全、合規、可控,才能迎來更廣闊的發展空間。