1. <li id="wmy6u"><acronym id="wmy6u"></acronym></li>
        <button id="wmy6u"></button>

        <th id="wmy6u"></th>
        <tbody id="wmy6u"><noscript id="wmy6u"></noscript></tbody>
        <rp id="wmy6u"><acronym id="wmy6u"><input id="wmy6u"></input></acronym></rp>

      2. 菜單

        人工智能生成內容的侵權風險及其規制路徑——以ChatGPT為例

        內容提要:ChatGPT等人工智能生成內容工具給現有法律體系帶來了挑戰。在私法領域,人工智能生成內容技術的潛在侵權風險是多領域的,既存在侵犯著作權等知識產權的潛在風險,也極有可能導致對肖像權、名譽權、隱私權與個人信息權等人格權的侵害?,F有的專門性規范多是公法領域下的監管性要求,難以化解上述侵權風險,人工智能生成內容應用場景下的侵權責任體系函待重構。應當嚴格區分不同生成內容方式下的責任承擔主體,并借鑒《民法典》侵權責任編中關于無過錯責任的規定,原則上由生成式AI的開發者對人工智能的自主生成行為承擔嚴格責任,但可設置若干法定免責或減責事由,以實現法律保護與促進技術發展兩者之間的動態平衡。

        關鍵詞:人工智能生成內容;AIGC;侵權風險;無過錯責任

        目次

        一、人工智能生成內容相關問題的提出

        二、人工智能生成內容的侵權風險及現有規制路徑

        三、人工智能生成內容的侵權責任體系的重構

        四、結論與展望

        一人工智能生成內容相關問題的提出


          ChatGPT的橫空出世,使得人工智能生成內容這一概念成為了2023年初的流量密碼。實際上,人工智能生成內容(Artificial Intelligence Generated Content,以下簡稱AIGC)并不是一個新生概念。相反,在過去十年,這一技術呈現出了爆發性的快速發展,類似于 DeepFake、ChatGPT的人工智能生成工具不斷誕生。人工智能生成內容是指由人工智能技術所生成的文本、圖像、音頻或視頻等可被人類所感知的內容,AIGC通常是通過訓練機器學習模型和分析大數據所產生的,并通過機器學習和數據分析不斷實現自身優化。在國外,生成式AI所涵攝的應用場景是豐富的,上文所提及的ChatGPT是一種文字生成式AI,此外還有諸如以DeepFake等換臉應用程序和DALLE2等繪圖應用程序為代表的圖像生成式AI,以及Meta公司所開發的Make-A-Video等視頻生成式AI。我國AIGC技術水平近年來也已有了長足的發展,人工智能生成內容的商業化成果不斷涌現,例如商湯科技所開發的AIGC“虛擬IP”直播、“數字員工”等AI生成內容,以及昆侖天工所開發的天工巧繪SkyPaint、天工樂府SkyMusic、天工妙筆SkyText、天工智碼SkyCode等AIGC模型,覆蓋了圖像、音樂、文本、編程等生成場景。


          令人遺憾的是,在這樣一個新興技術不斷加速出現在人類日常生活中的時代,現有的法律體系往往不能解決新興技術所帶來的風險與挑戰,這一矛盾在AIGC技術的應用場景中尤為明顯:因為AIGC技術具有較強的不確定性,這就必然與法律制度所追求的確定性相沖突。人工智能生成內容技術的深刻復雜性及其潛在的法律風險也無疑引發了法學研究者的重視,在現有國情下探索出一條妥當的規制路徑,在有效規范人工智能技術的同時,也為AIGC技術的快速發展預留必要的制度空間,實現兩者的動態平衡,確有必要。


          國內現有研究對于人工智能生成內容的探討多集中在生成內容的法律屬性這一問題之上,而缺乏對人工智能生成內容的侵權風險的分析;或雖有探討人工智能生成內容的侵權風險,但也多集中于知識產權領域的討論,而非系統的體系化分析。有鑒于此,本文將展開對國內外規制路徑的比較分析,并集中探討AIGC應用場景下的典型侵權風險及其責任承擔問題。例如,在AIGC應用場景下,如果代碼開發人員負責創建一個算法,該算法隨后通過自我學習而不斷變化,在某次具體應用場景中,其生成內容最終導致了損害的發生,那么開發人員是否仍對損害負責,即使其在客觀上沒有直接實施侵權行為,在主觀上也無故意或過失的侵害意圖?再如,受技術水平的限制,現有的大部分人工智能生成工具的機器學習水平不高,其生成內容多受制于操作者的輸入內容,并在此基礎上生成相應的文字、圖像、音頻等內容(例如上述ChatGPT、DeepFake等應用程序便屬于基于用戶輸入的人工智能生成工具),對于此類人工智能生成場景而言,如若其生成內容在客觀上造成了損害結果,其責任主體又當如何確定?承擔侵權責任的,其責任構成要件相較于一般侵權責任而言是否應當有所異化?對于人工智能生成場景中上述侵權法問題的梳理和分析,確有必要。


        二人工智能生成內容的侵權風險及現有規制路徑


         ?。ㄒ唬〢IGC 場景下典型侵權風險的類型化梳理


          在展開對生成性AI場景下的潛在侵權風險之前,有必要先對其基本運作邏輯及其分類展開介紹。


          1.對著作權等知識產權的侵權


          生成型AI在模型建構和優化的過程中,都不可避免地會涉及到基本素材的收集,無論是通過非數字作品數字化的手段獲取素材,還是通過腳本實現對互聯網上已有作品的抓取,都可能會被認定為是一種復制行為,進而可能侵犯作品人的著作權。二是生成內容也可能涉及對他人作品改編權的侵犯。有學者總結出,“人工智能進行創作時有三種可能的輸出結果:一是輸出具有獨特風格的全新作品;二是輸出與原作品構成實質性相似的作品;三是輸出帶有原作品創作元素等基本表達的新作品?!爆F有的AIGC技術所生成的內容往往難以達到第一種結果,而在第二、第三種情況下,則可能會分別侵害到相關權利人的知識產權。例如 ChatGPT的答復當中拼接了其語料庫當中的受著作權保護的作品,那么在生成行為沒有取得相關權利人的授權,也不構成合理使用的場景下,這一行為應當被認定為侵權。


          另外,現有的著作權侵權認定標準,即實質性相似規則,在人工智能生成內容場景下也具有應用難題。實質性相似規則在本質上是一種較為抽象的判斷標準,其在認定侵權時只能起到“定性”的作用而難以起到量化的作用。但在AIGC技術應用場景下,由于生成式AI 能夠自動化地從大量素材中提取較為抽象的基本元素,并進行不確定的組合與變化,最終生成的內容可能難以被認定為與某個原作品之間具有實質性相似。因此,即使社會一般人均認為在常理之下某一生成行為顯然侵犯了原作品的某種知識產權,其侵權性質仍難以被證成。


          根據前文所述,人工智能在生成文字、圖片等內容的過程中很可能侵犯他人作品的復制權、改編權等權利,那么AIGC場景下是否可能適用《著作權法》第二十四條所規定的合理使用原則,以消除在生成內容過程中所潛在的侵犯著作權的風險?所謂合理使用,是指他人可以在法律規定的情況下,不經權利人的許可而自由合法地使用享有著作權保護的作品。遺憾的是,在我國現行《著作權法》所規定的合理使用框架下,人工智能很難以合理使用作為法定豁免事由。關于合理使用認定標準的直接規定體現在《著作權法實施條例》第21條:“依照著作權法有關規定,使用可以不經著作權人許可的已經發表的作品的,不得影響該作品的正常使用,也不得不合理地損害著作權人的合法利益?!痹谏墒紸I場景下,目前主流的開放性人工智能生成內容平臺對他人作品的使用基本很難滿足上述判斷標準。一是因為現有生成性AI的開發者多為商業公司,因而難以排除生成行為本身具有商業目的;二是因為AIGC技術的運行邏輯便是在海量基礎數據的深度學習基礎上,不斷優化算法模型自身,并自主生成相應的內容,因而便不符合“少量復制”等客觀要求,而收集原始數據這一行為自身就可能被認定為影響權利人合法權益的正常實現,更何況現實中不乏有暴力爬取數據乃至于破壞權利人所設置的保護機制等情形的發生。


          2.對民事主體人格權的潛在侵權風險


          在人工智能生成技術的應用場景之下,特別是在深度合成技術的應用領域,極有可能會導致對肖像權、名譽權、隱私權與個人信息權等人格權的侵害行為的發生。


          近日,杭州互聯網法院審結了一例AI換臉侵犯肖像權案件,法院認定“AI換臉”應用程序開發者涉嫌使用深度合成技術侵犯原告肖像權,判令其賠禮道歉并賠償損失共5000元。在該案中,原告的某段發布在互聯網上的視頻被“AI換臉”應用程序開發者收集為素材,該應用程序的用戶可通過上傳個人照片,將視頻模板中的人臉替換成用戶上傳的人臉,除五官發生實質性變化之外,其余內容都與原視頻保持一致。


          杭州互聯網法院認為:“民法典明確將‘不得利用信息技術手段偽造等方式侵害他人的肖像權’作為侵害肖像權的一種典型形態予以規制?!眯畔⒓夹g手段偽造’是指利用信息技術手段編造或者捏造他人肖像,以假亂真,以達到利用不存在的事物來謀取非法利益的目的...本案中,原告對案涉要素模板視頻及替換后視頻中所載對應形象的人物肖像均享有肖像權。對于換臉前的視頻,原告雖以古風妝容并著漢服出鏡,但從其面部形象、體貌特征,普通人仍可對其主體身份進行輕易識別。該視頻被上傳至App作為模板供他人使用時,視頻內容未做篡改,亦不發生主體形象不可識別的問題。對于換臉后的視頻,原告僅留存身體形象,但對比原視頻素材,普通人仍能通過未被修改的相應場景和細節識別出身體形象對應主體為涉案原告。被告未經原告同意,通過技術手段提取涉案古風肖像視頻,并擅自上傳至其運營的換臉App中供用戶選擇使用,該行為本身已侵害原告肖像權...綜上,被告未經原告同意,利用深度合成技術使用其肖像制作了偽造視頻,依法應認定為構成對原告肖像權的侵害?!?/p>


          該案屬于人工智能合成場景下的新型侵權案件。實際上,這并非是“AI換臉”應用程序的“首次登場”。早在2021年,藝人劉昊然被深度合成技術偽造出不雅視頻并在網上大量傳播。盡管劉昊然工作室及時公開澄清和聲明,但8月這段假視頻再次在社交軟件上廣泛傳播,對劉昊然個人聲譽造成負面影響,該生成內容的制作行為顯然侵犯了劉昊然的肖像權與名譽權,但由于難以追蹤其始作俑者,受害人最終也難以維權。


          AI生成內容行為除了可能侵犯相關民事主體的肖像權與名譽權,還可能涉嫌侵犯相關民事主體的隱私權與個人信息自決權。例如在生成式AI建模過程中,開發者可能會通過數據爬取等未授權方式收集到公民手機號、照片、聊天記錄等隱私信息并進行不當處理,如若處理不當,還可能會導致隱私泄露至相關人工智能生成內容當中。再者,在用戶使用ChatGPT 等生成式AI 工具時,也會被告知可能需要其提供相應的個人信息以更好地發揮該工具的功能。但這一信息收集行為的范圍和程度可能是未經正當考量的。人工智能技術實際上影響了個人隱私等敏感信息自決行為的“自治性”,因為人工智能的便利性是以收集和使用用戶的個人信息為基礎的?!坝脩舯砻嫔想m享受到人工智能技術的便利,實際上卻是在‘便利性’與‘讓渡個人信息’二者之間作出選擇?!鄙鲜鍪占c處理相關信息的行為均涉嫌侵犯到相關民事主體的隱私權與個人信息相關權利。


          現實中類似于上述涉案“AI換臉”程序的生成式AI數量還有不少,并且隨著AIGC技術的發展,其應用場景也不斷出現和豐富,比如虛擬偶像、定制表情、聲音復制、音樂合成、類人創作等,但由于AIGC技術固有的不確定性、自動性,生成式AI的開發者也難以控制生成內容過程中的侵權風險??紤]到AIGC技術應用場景的豐富性,其生成內容行為可能涉嫌侵犯相關民事主體肖像權、名譽權及隱私權等多種人格權,潛在危害極大,而傳統侵權責任法可能難以應對這一新興場景下的諸多難題,探尋到一條適當的法律規則路徑具有現實緊迫性。


         ?。ǘ﹪鴥韧馊斯ぶ悄苌蓛热莸姆梢幹坡窂?/p>


          如上文所述,AIGC技術帶了諸多潛在且不可控的侵權風險,構成了對傳統侵權責任法的實質性挑戰。在面對這一挑戰時,中國和美國在對人工智能生成內容的法律規制上各有側重,選擇了不同的法律規制路徑。


          就針對包括AIGC技術在內的人工智能的法律規制而言,我國目前更多的是從宏觀政策的角度加以支持與規范,而非直接展開更為具體的立法工作。在監管層面上,目前對人工智能生成內容的法律規制在電子商務、數據安全和個人信息保護等領域的相關立法中已經有個別條款分別涉及,但尚未形成統一、周延的法律規則體系。


          2023年由國家互聯網信息辦公室、工業和信息化部、公安部聯合出臺并實施的《互聯網信息服務深度合成管理規定》是第一部專門規范人工智能生成內容的部門規章,這一規范性文件分別從制定目的依據、適用范圍和總體要求;深度合成服務提供者的義務;深度合成信息內容標識管理制度;多方服務提供者的監督管理相關要求;法律責任五個部分對生成式AI這一領域展開規制,具有較強的針對性,可以在一定程序上填補該領域的法律漏洞。


          總體而言,我國目前對包括AIGC在內的人工智能技術的法律規制仍然是以分散式立法模式為主,相關法律規范分布在不同層級、不同領域的法律規范中。這符合我國一貫針對包括人工智能在內的新興事物所采取的漸進式立法思路,但現有的專門性法律規范也體現出效力層級不高、內容不夠具體等顯著問題。


          在國外,人工智能生成內容的監管也從未停止。當然,美國當前也尚未在AIGC技術領域形成統一立法。但早在2021年,美國國會眾議院議員便提出了DEEP FAKES 問責法案(DEEP FAKES Accountability Act,117 Bill Tracking H. R.2395),以填補該領域監管規則的缺失,這是美國聯邦層面的首次立法嘗試。該法案規定了深度合成的合規要求,并規定了對相關違規行為的刑事處罰。具體而言,它要求深度偽造的生產者通常遵守某些數字水印和披露要求(例如口頭和書面聲明),不得制作不符合相關水印或披露要求的深度偽造品,以及不得更改深度偽造品以刪除或有意義地掩蓋此類要求的披露。違反者將被處以罰款,最高五年監禁,或兩者兼而有之。它還規定了民事處罰,并允許個人提起民事訴訟要求損害賠償。


          而在州層面,關于人工智能生成內容的立法草案也在近年來不斷涌現,最新的州立法進程當屬是美國馬薩諸塞州參議院第1827號法案(2023 Massachusetts Senate Docket No.1827)。在法案摘要部分,立法者指出了該法案目的便在于規范生成人工智能模型,如 ChatGPT,以保護公眾的安全、隱私和知識產權。具體到法案內容部分,立法者則從定義、操作標準、登記要求、執法幾個章節對諸如ChatGPT的生成式人工智能的監管要求加以說明,這是美國州層面的最新立法嘗試。


          通過對上述國內外法律規制路徑的審視,我們可以發現針對人工智能生成內容技術的現有規范多是公法領域下的監管性要求,尚不能很好地解決人工智能生成內容場景下存在的諸多私法問題,例如侵權風險的化解。不可否認的是,就AIGC技術的發展水平及其當下應用情況而言,采取“傳統法律修正”的模式是一種可行的進路,但這就要求我們合理使用法律解釋技術,以解決好AIGC技術所帶來的諸多問題。針對上文所提及的諸多侵權風險,尤為重要的是這一場景下侵權責任體系的重構。


        三人工智能生成內容的侵權責任體系的重構


         ?。ㄒ唬〢IGC 場景下的侵權責任承擔主體的明確


          侵權責任承擔主體的模糊是造成生成式AI場景下侵權風險難以控制的主要原因之一。試問如若難以確認責任主體,又如何確保AIGC技術應用場景下相關民事主體的合法權利能夠得到保護?


          部分學者認為在人工智能侵權場景下,特定的算法開發人員應對該算法造成的傷害負責,這是傳統侵權法視角下的正確做法。但在AIGC技術的應用場景下,不僅存有生成式AI工具自動侵權的情況,也有用戶輸入相關指令后所生成的內容侵權的情況,如果適用單一責任主體的侵權責任架構而不加區分,則可能會導致責任承擔主體識別錯誤的發生。


          事實上,在這兩種不同運作模式下,應當對侵權責任的承擔主體加以區分。在簡單的指令輸入輸出型生成式AI場景下,例如利用初級換臉技術進行換臉,如若換臉后的圖片侵犯了相關主體的肖像權,則原則上應當追究指令輸入人,也即圖片制作者的相關責任。當然,在互聯網時代,考慮到信息不對稱等問題,受害人可能很難確認原始圖片制作者的真實身份。這就有必要強調在AIGC應用場景下,人工智能生成內容服務提供者也應適用“通知-刪除”規制,在接到通知后應采取刪除、屏蔽、斷開鏈接等必要措施,快速制止侵權行為以防止損害結果的不當擴大,并提供相關指令輸入者的身份信息,協助受害人展開有效維權。


          而在更為復雜的自主生成式AI應用場景下,對于人工智能的自主侵權行為,則原則上應當由開發者承擔最終的侵權責任。這是因為人工智能生成行為在本質上還是體現著算法編寫者—生成式AI開發者的意志,可以將其自主生成行為視為“代理”開發者從事行為或作出決定,相應的就應當由開發者承擔包括潛在侵權責任在內的法律后果。還有學者認為,這在本質上是一種替代責任,也即可以比照父母對未成年人子女的責任或者說監護人對被監護人的責任,或者雇主對雇員的責任,讓人工智能開發者承擔替代責任。當然,不論從哪種解釋進路出發,得出的結論也是一致的。在對人工智能生成內容場景下的侵權責任承擔主體作出二元區分后,就有必要轉入對歸責原則的進一步討論當中了。


         ?。ǘ〢IGC 場景下歸責原則的明晰——無過錯責任的適用


          歸責原則是強調責任人承擔侵權責任的依據和基礎,也是處理各類侵權糾紛案件所應遵守的基本準則?!睹穹ǖ洹防^承了原《侵權責任法》的二元歸責體系,即以過錯責任為主,無過錯責任(嚴格責任)為補充。無過錯責任的適用具有嚴格的法定性,這就意味著,由于法律沒有特別規定,對于人工智能生成內容場景下相關主體侵權責任的判定只能采取過錯責任的歸責原則。但事實上,適用單一的過錯責任原則難以解決AIGC技術所帶來的諸多侵權難題,一是該場景下受害人的舉證難題問題,二是該技術潛在的侵權風險與其侵權成本之間的高度不對稱性。


          呼吁適用無過錯責任而非過錯責任的主要原因之一便是考慮到AIGC技術的獨特性,尤其是“黑匣子”問題嚴重影響了相關民事主體之間的法律關系的可預測性與相對穩定性。所謂“黑匣子”問題,主要是指“在人工智能時代,由于算法的復雜性,算法帶來的結果可能無法預測,并在更大范圍內帶來系統性的不利后果?!比缜八?,現在的人工智能生成工具多數具有自主學習能力,這就意味著人工智能生成工具不是簡單地實現人類設計的算法:它們可以通過修改原始算法,甚至完全從頭開始獨立生成輸出來創建自己的算法,這被稱為“機器學習”。為機器學習而開發的計算機具有內置算法,不僅可以從數據輸入中學習,還可以發展并做出定向和獨立的未來決策。通過反復收集和處理用戶數據并分析用戶行為,人工智能技術背后的算法不斷自主地進化并變得“更智能”。


          正如人工智能生成工具ChatGPT在網站的顯著位置所標識的那樣:“我們的AI可能會審查對話以改進我們的系統”,但這可能也意味著AIGC技術的發展趨勢之一便是將更多的不確定性因素納入進來。雖然各國監管者均在逐漸重視人工智能算法的“透明度”和“可解釋性”,但就目前看來這些概念的實現是存在著技術壁壘的,人工智能生成內容開發者都難以完全控制機器學習的結果,以及準確實現對生成內容的事先控制。例如據《紐約時報》報道,美國新聞可信度評估與研究機構NewsGuard對ChatGPT進行了測試,虛假信息的研究人員對 ChatGPT提出充斥誤導性敘述的問題,發現它能在幾秒鐘內改編信息,產生大量令人信服卻無信源的內容。但因為這一平臺尚且沒有完全的控制生成內容的能力,這可能被那些有心之人所利用,成為高效的“犯罪工具”。事實上,開發者OpenAI也于該平臺的顯著位置處表明雖然ChatGPT有適當的保護措施,但系統可能偶爾生成不正確或誤導性的信息,并產生令人反感或有偏見的內容,它無意提供建議。


          那些主張對生成式AI實行嚴格責任制度的人常常從產品責任的角度來進行類比。在產品責任制度中,產品制造者對其產品缺陷所造成的損害負有無過錯責任。依照學界通說,適用無過錯責任的主要原因在于它節省了復雜而漫長的訴訟的交易成本,并將責任歸置到最能吸收或轉移成本的行為主體身上。本文贊同上述觀點的結論,即人工智能生成內容侵權場景下應當采取無過錯責任的歸責原則。但除了上文所提及的訴訟成本問題、舉證責任問題等,至少還有兩個論點清楚地表明,無過錯責任的歸責原則應當適用于AIGC技術的應用場景。


          第一個理由是與“委托-代理”的法律關系背景相類似。首先,高級人工智能與開發者之間的關系最好被類比為“委托-代理”的法律關系,其中生成式AI是代理人,包括實體機器和虛擬算法。解釋為“委托-代理”的法律關系的當然結論便是應當適用“上級負責制”原則,即生成式AI法律行為的后果都應當由開發者承受,包括侵權責任。作為一種法律擬制,“上級負責制”原則實際上廣泛體現在侵權責任法當中,例如動物致人損害責任,其本質上就是責任主體的身份被簡化為最有能力控制和監督動物(代理人)活動的主人(委托人)。


          在“上級負責制”的原理下,人工智能生成內容工具的開發者應當對生成式AI的運作過程中所導致的損害承擔責任。這一類比是恰當的,因為生成式AI對受害者來說是不透明的,也就是說,當受害者面對生成式AI的侵權行為時,她無法事先采取任何預防措施來排除妨害。相反,生成式AI的開發者處于優勢地位,可以采取積極主動的行動來防止潛在的事故,減輕損失。例如可以預先為AIGC工具購買保險,或通過系統測試等途徑消除潛在侵權風險。


          適用嚴格責任制度的第二個理由是考慮到AIGC技術應用場景下的風險不對稱問題。原則上,受害者有權對由風險造成的傷害進行追償。而如果某一行為具有相對于受害人創造風險的活動而言不相稱的、過度的傷害風險,那么在損害實際發生時,行為人就應當承擔無過錯責任,即嚴格責任。生成式AI在運行過程中具有造成大范圍且不可控風險的潛在可能,并且相較于人類個體而言,人工智能能夠以更高效的方式與這個社會進行互動,這導致他們可能給他人帶來更大的風險。特別是在互聯網時代,生成式AI在接入互聯網之后擁有快速、重復和同時在大量網絡平臺上交互的獨特能力。在這一背景下,即使人工智能生成內容的開發者事先采取了合理的預防措施,對其課以較重的無過錯責任也是適當的。更何況,開發者為了避免生成式AI侵權結果的發生,施加無過錯責任在一定程度上能夠反之促進AIGC技術的完善和發展。反觀,過錯責任的歸責原則則很難起到上述作用,因為生成式AI開發者只有在有過錯即未能采取合理的預防措施的情況下才要承擔侵權責任,這在具有高度風險的人工智能領域下是不恰當的。


          此外,與過錯責任歸責原則不同,無過錯責任制度能夠避免對“一般理性人”等非客觀標準的分析,從而最大限度地降低責任判定的難度,這在生成式AI侵權場景下尤為重要,因為考慮到上述“黑匣子”問題的現實存在,故難以針對過失或有責的概念形成一種具有可操作性的證明方式。


          綜上所述,對于生成式AI自主侵權行為的發生,應當適用無過錯責任的歸責原則。當然,即使設置了無過錯或過錯推定的歸責原則,仍然可以參照其他無過錯責任類型設置一下法定免責或減責事由,例如在能夠證明損害是因不可抗力而產生或受害人故意造成的情況下,則開發者不承擔責任;被侵權人對損害的發生有重大過失的,可以減輕開發者的責任。如此,既可實現設置無過錯責任制度的最初立法目的—保護弱勢群體的合法權益,也蘊含著對實質公平觀的追求,避免對一方當事人的過度偏袒。



        結論與展望


          技術進步總是會給法律提出各種挑戰,但是法律的可預測性與可解釋性也為我們著手解決諸如人工智能生產內容技術等新興事物所帶來的現實挑戰提供了切實可能性。ChatGPT等生成式AI的火爆既讓我們看到了科技快速發展給人類帶來的一絲曙光,也不禁讓法律人沉下心來思考其所可能帶來的諸多法律風險。通過對現實案例的審視,可以看到AIGC技術應用場景下的諸多潛在侵權風險。然而,這一領域下的現有國內外法律規范多集中在公法領域,而難以解決侵權法下的諸多現實難題?,F有法律無法覆蓋與解決生成式AI所帶來的諸多侵權風險,就必須訴諸于民法解釋學的幫助,尋求對人工智能生成內容場景下侵權責任體系的重構。上文指出一方面應當嚴格區分不同場景下的責任承擔主體,另一方面應當變革人工智能生成內容場景下的現有歸責原則,轉而探索適用無過錯責任制度。


          

        相關推薦
        掃一掃關注微信公眾號
        地址:北京市海淀區常青園路8號酈城工作區228
        北京沐潼律師事務所 版權所有
          1. <li id="wmy6u"><acronym id="wmy6u"></acronym></li>
            <button id="wmy6u"></button>

            <th id="wmy6u"></th>
            <tbody id="wmy6u"><noscript id="wmy6u"></noscript></tbody>
            <rp id="wmy6u"><acronym id="wmy6u"><input id="wmy6u"></input></acronym></rp>

          2. 大奶子骚货被操在线