最近,生成式人工智能毫無疑問是個熱詞。而隨著這項技術的發展,出現了用AI“復活”逝者的現象,尤其是未經親屬允許“復活”明星等公眾人物,當然這個“復活”是加引號的,更多指的是聲音和形象的再現。而由此帶來的感受和看法,卻是不一樣的。
從不同的聲音來看,大家爭論的對象,更多的是在未經親屬允許,對于明星等公眾人物的“復活”。對于親屬自己要求的,大家也在關心相關數據如何保護和使用的問題。
那么,用AI“復活”逝者,究竟行不行?這項技術的使用邊界在哪兒?怎么依法依規又安全地使用?在人工智能大力發展之下,相關的法律法規如何更完善?我們一起關注。
用AI“復活”已故明星,是否涉及侵權?
中國政法大學數據法治研究院教授 張凌寒:對于死者人格權益的保護,包括肖像權、隱私權和名譽權,《民法典》已有相關規定,只是現在對于AI如何侵犯死者的權益,包括死者在AI技術之下“復活”,對相關權益的保護提出了一些新的挑戰。如果按照傳統的《民法典》規定,毫無疑問,沒有取得死者近親屬的同意,這樣是侵權的,我們可以通過事后侵權責任追究的方式來對其進行法律責任的規制。此外,在《互聯網信息服務深度合成管理規定》當中,要求“深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意”。那么很顯然粉絲如果想去“復活”明星的話,很難真正取得死者家屬的知情同意,那么毫無疑問這就是一個侵權行為。
我國人工智能領域的治理,有哪些成績?又有哪些短板?
中國政法大學數據法治研究院教授 張凌寒:我國的人工智能治理現在是走在世界前列的,我國人工智能治理的特點是小、快、靈。一個方法就是及時出臺一些具體的規章,能夠應對技術的快速發展,同時能夠解決新出現的問題。目前歐盟的《人工智能法案》剛剛通過,美國在去年10月份也頒布了白宮行政令去規制人工智能。中國已有的一些人工智能的法規可以說是強制性的,同時速度是非常快的,也有一些符合中國本土特色的制度。但是即使如此,我們可以看到,現在對人工智能的治理,相對還存在一些法律上的不足。比如大部分是以部門規章為主,這樣效力位階就比較低。另外,很多監管部門基于自己的監管職能去出臺部門規章,這樣可能就缺乏一個統籌協調的機制和視角。后續我們可能要做的工作就是讓這些部門的職能更好地協調,能夠讓它更好地落地。
人工智能快速發展,如何讓規范和監管跟上,甚至走在前面?
中國政法大學數據法治研究院教授 張凌寒:讓監管和技術發展盡可能同步,聽起來似乎是一個不太可能完成的任務,因為人工智能的技術發展非常之快。大家回憶一下,2023年這個時候,ChatGPT的用戶數量剛剛突破1億,現在我們又可以看到更多的人工智能大模型出現在市場上。所以說人工智能治理面臨的最大的困難,就是技術發展的快速性,以及技術發展和風險的不確定性。那么如何讓監管更前進一步呢?我想我們可能更需要做的是讓產業發展,“讓子彈多飛一會”,看看人工智能技術的發展,可能給社會和公民個人帶來一些什么樣的危害。如何讓監管走到前面,我覺得比較穩妥可行的方法是始終劃定技術發展的紅線和底線,就是我們始終要求技術的發展不能突破國家安全、社會公共利益和公民個人權益保護的底線。
面對AI技術,哪些法律需要跟上?
眼下,人工智能技術的迅速發展,也正在為社會創造更多的價值。然而,人工智能在改變我們生活的同時,在應用中也出現了傳播虛假信息、侵害個人信息權益、數據安全等問題。比如,“AI換臉”,已經從娛樂蔓延到了詐騙,“AI歌手”,已經從娛樂涉及了侵權。新技術發展的同時,法律體系如何及時跟進?點擊視頻,了解更多信息↓↓↓
AI“復活”技術,對服務提供者提出怎樣的約束和提醒?
中國政法大學數據法治研究院教授 張凌寒:我們其實對制作方的規范是非常多的,大家可以參見我國《互聯網信息服務深度合成管理規定》,要求如果能夠提供生成音頻視頻的這樣一些深度合成的話,首先對于數據要有非常嚴格的安全管理,同時要盡到對于用戶的提示義務,就是每當用戶在去做一些上傳敏感的個人信息,像人臉人聲去進行編輯的時候,要提醒需要取得相關個人的同意。但是同時也可以想見,對于這個平臺來說,或者這樣一個服務提供者來說,也是比較難的。因為有海量的用戶可能去生成一些這樣的內容。如果你要求它挨個去審核,它是不是經過了相關個人的同意,可能在體量上比較難。即使有難度,互聯網信息服務深度合成的提供者,還是要承擔起監管的義務。首先在用戶協議方面,做好相關的提示工作。其次在用戶做這樣的事情的時候,比如說它上傳的是一些名人的敏感個人信息時,很可能是沒有取得授權同意的,就做一些相關的屏蔽和處理。
來源:央視新聞 | 撰稿:辛文 | 責編:俞舒珺 審核:張淵
新聞投稿:184042016@qq.com 新聞熱線:135 8189 2583