以案“視”法丨謹防侵權(quán)!用AI生成內(nèi)容,要注意規(guī)避這些風(fēng)險
2024-05-24 10:26 來源:新華網(wǎng) 作者:盧俊宇

新華網(wǎng)北京5月23日電(記者 盧俊宇)5月15日,首例“AI視聽作品侵權(quán)案”開庭。此前,在4月23日,北京互聯(lián)網(wǎng)法院宣判了全國首例AI聲音侵權(quán)案,原告因其聲音被AI技術(shù)模仿并商業(yè)化使用而獲得勝訴;1月,中國首例AI生成圖片著作權(quán)侵權(quán)案已判決生效。該案經(jīng)過五次審理,最終法院認定原告圖片具備“獨創(chuàng)性”,符合作品的定義,屬于美術(shù)作品,受到著作權(quán)法保護。

生成式人工智能的誕生為人類社會提供了極大便利,但其產(chǎn)生和應(yīng)用過程也伴隨著諸多風(fēng)險,特別是侵權(quán)行為風(fēng)險。所以,為了更好了解我國生成式人工智能風(fēng)險防范立法規(guī)定和侵權(quán)類型,促使我們有效規(guī)范自己行為,正確運用人工智能,記者專訪了北京大學(xué)國際知識產(chǎn)權(quán)研究中心研究員、北京云亭律師事務(wù)所主任唐青林。

新華網(wǎng):我國目前法律法規(guī)和其他部門規(guī)章對規(guī)范生成式人工智能的應(yīng)用有哪些具體的規(guī)定?

唐青林:2023年8月15日發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,這是專門針對生成式人工智能所作出的規(guī)定。《暫行辦法》對提供者及使用者必須遵循社會公德和倫理道德提出了基本要求,其中包括必須堅持社會主義核心價值觀,必須保護商業(yè)秘密、個人隱私等不受侵犯;同時進一步從服務(wù)規(guī)范和法律責(zé)任等具體方面對生成式人工智能服務(wù)進行了具體規(guī)范。

對于人工智能的發(fā)展和規(guī)范,我國早在2017年就頒布了《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,將人工智能作為戰(zhàn)略目標,分三步實現(xiàn)。同時,提出要建立人工智能安全監(jiān)管和評估體系,加大對數(shù)據(jù)濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度。

2021年頒布施行的《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》以及2022年施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》均明確了信息服務(wù)的規(guī)范要求,算法推薦服務(wù)提供者不得利用算法推薦服務(wù)侵犯他人合法權(quán)益。

除此之外還有《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,主要規(guī)定深度合成服務(wù)提供者進行訓(xùn)練數(shù)據(jù)管理必須保障數(shù)據(jù)安全,同時對可能涉及國家安全、個人隱私等信息進行安全評估,采取技術(shù)或者人工方式對深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進行審核。

新華網(wǎng):生成式人工智能形成的作品是否具有獨創(chuàng)性,能否受到著作權(quán)法的保護?

唐青林:在司法實務(wù)中,從裁判者的視角來看,“獨創(chuàng)性”要求作品由作者獨立完成,并體現(xiàn)出作者的個性化表達。因此,如果只是機械地按照一定的順序、公式或結(jié)構(gòu)完成作品,不同的人會得到相同的結(jié)果,通常會被認為不具有獨創(chuàng)性。

對于生成式人工智能形成的作品是否具有獨創(chuàng)性,不能一概而論。在一定的數(shù)據(jù)模型之下,使用者的提示詞越詳細越具體,則人工智能生成的作品結(jié)果與其他人呈現(xiàn)的區(qū)別就越大,也可以認為其作品更具備獨創(chuàng)性的可能。

具有獨創(chuàng)性的作品是應(yīng)當(dāng)受到保護的,但是由于目前我國著作權(quán)法中著作權(quán)屬主體不包括人工智能模型,因此人工智能模型本身是否能夠成為著作權(quán)法保護的主體尚存在爭議。在目前的司法實務(wù)中,通常是由生成式人工智能的使用者向法院請求著作權(quán)保護的方式進行維權(quán)。

新華網(wǎng):生成式人工智能的迅速發(fā)展可能引發(fā)哪些法律風(fēng)險?

唐青林:生成式人工智能可能引發(fā)的法律風(fēng)險既廣泛又復(fù)雜,引發(fā)的民法上侵權(quán)主要表現(xiàn)在幾個方面:

對他人信息和隱私權(quán)的侵害。生成式人工智能服務(wù)提供者前期需要收集大量數(shù)據(jù)并進行數(shù)據(jù)訓(xùn)練形成模型,在數(shù)據(jù)收集的過程中,服務(wù)提供者可能未經(jīng)他人同意即收集、存儲、使用了他人的信息,而這些信息可能涉及高度敏感信息或者個人隱私,此時服務(wù)提供者可能已經(jīng)侵犯他人個人信息或者隱私權(quán)。

對他人姓名權(quán)、肖像權(quán)、名譽權(quán)的侵害。例如最高法發(fā)布的侵犯人格權(quán)的典型案例中,有一起就是人工智能軟件擅自使用自然人形象創(chuàng)設(shè)虛擬人物構(gòu)成侵權(quán)的案例。其中被告作為人工智能的運營者,在軟件中允許用戶自行添加AI陪伴者,在未征得原告同意的情況下,軟件使用了原告的姓名、肖像等信息,使其被標識為“AI陪伴者”,并將該角色開放給其他眾多用戶。最終北京互聯(lián)網(wǎng)法院判決被告侵害了原告姓名權(quán)、肖像權(quán)。

生成式人工智能也比較容易引發(fā)知識產(chǎn)權(quán)侵權(quán)糾紛。比如數(shù)據(jù)中存在他人享有著作權(quán)的作品,而服務(wù)提供者未經(jīng)他人授權(quán)即使用這些作品,則可能侵害他人的著作權(quán)。同理,這種人工智能生成作品的行為也可能基于使用他人的商標,在對使用生成圖片的商品進行宣傳時導(dǎo)致消費者產(chǎn)生某種混淆,也可能會構(gòu)成對商標權(quán)的侵害。

新華網(wǎng):日常生活中人們利用生成式人工智能娛樂和社交,應(yīng)當(dāng)注意哪些方面?

唐青林:首先,在使用人工智能時,我們需要注意個人信息安全和個人隱私的保護。根據(jù)個人信息保護法的規(guī)定,向他人提供個人信息或者對外公開個人信息的,均應(yīng)取得用戶個人的單獨同意。因為用戶使用生成式人工智能時需要向機器提供數(shù)據(jù),例如提出問題或者給出提示詞,而這些數(shù)據(jù)本身則可能被用于人工智能的訓(xùn)練。服務(wù)提供者數(shù)據(jù)訓(xùn)練的過程中極可能抓取個人未公開的信息,甚至是高度敏感的信息和個人隱私,并對這些抓取的信息作為訓(xùn)練數(shù)據(jù),此時很容易造成對個人信息和隱私的泄露,給個人造成不必要的損失。

其次,盡量確保輸入信息的真實性和準確度。因為人工智能產(chǎn)品尚不能辨別信息的真?zhèn)危渲荒芨鶕?jù)輸入的信息和指令完成文本、圖片、視頻的輸出,由此人工智能容易將虛假的、不正確的信息作為事實對待,從而導(dǎo)致生成內(nèi)容的錯誤或者讓用戶產(chǎn)生混淆。

再次,作為使用者也應(yīng)當(dāng)注重對他人人格尊嚴、個人信息以及其他合法權(quán)益的保護,如果在使用人工智能過程中發(fā)現(xiàn)生成式人工智能服務(wù)不符合法律、行政法規(guī),使用者有權(quán)向有關(guān)主管部門投訴、舉報。

最后,高度關(guān)注未成年人群體使用人工智能的限度問題?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》專門規(guī)定,服務(wù)提供者應(yīng)當(dāng)采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)。未成年人過度使用生成式人工智能更容易引發(fā)未成年人個人信息和隱私被抓取和非法利用的問題,也會容易導(dǎo)致未成年人可能被人工智能所生成的錯誤信息誤導(dǎo),會對未成年人的思想、認知產(chǎn)生消極的影響。

編輯:劉曉瑩