中圖分類號:TP18;D920.0 文獻標識碼:A 文章編號:1000-5099(2025)04-0088-14
一、問題的提出
上世紀80年代起,算法的發(fā)展促進人工智能從數(shù)據(jù)中學習并實現(xiàn)性能提升,跨越了早期根據(jù)系統(tǒng)既定規(guī)則執(zhí)行任務的階段[1]。生成式人工智能在算法迭代中誕生,并迅速在眾多領(lǐng)域得到應用。與人工智能不同,生成式人工智能指基于訓練數(shù)據(jù)生成新穎且有意義的文字、圖案和音頻等內(nèi)容的技術(shù)[2]。生成式人工智能的運作可劃分為數(shù)據(jù)獲取—數(shù)據(jù)訓練—內(nèi)容生成三個階段:以獲取的數(shù)據(jù)喂養(yǎng)算法模型,通過算法模型訓練生出全新內(nèi)容,輸出的內(nèi)容取決于獲取的數(shù)據(jù)。以往數(shù)據(jù)不正當競爭案件,如微博訴脈脈案①、大眾點評訴百度案②等大多聚焦于數(shù)據(jù)獲取或數(shù)據(jù)使用。生成式人工智能涉數(shù)據(jù)競爭行為產(chǎn)生的糾紛則貫穿數(shù)據(jù)流通的各個環(huán)節(jié),從獲取的手段到使用的方式,再到生成的內(nèi)容,均可能導致不同程度的齟齬。譬如,在我國生成式人工智能涉數(shù)據(jù)不正當競爭糾紛第一案——“奧特曼LoRA案\"中,一審法院認定用戶下載、轉(zhuǎn)發(fā)生成的內(nèi)容不構(gòu)成不正當競爭③,二審期間案涉公司又提出生成式人工智能模型“定向訓練\"行為涉及不正當競爭④。由此可見,該案件包含主體多樣、涉及環(huán)節(jié)眾多,深刻凸顯了生成式人工智能涉數(shù)據(jù)競爭行為的正當性認定難題。
誠如學者所言:“每一輪通用技術(shù)革命都會引發(fā)產(chǎn)業(yè)發(fā)展范式的深刻變革。”[3]2023 年7月我國發(fā)布的《生成式人工智能服務管理暫行辦法》第三條強調(diào),生成式人工智能治理要堅持“安全與發(fā)展并重、促進創(chuàng)新與依法治理相結(jié)合的原則”4]。兩審法院關(guān)于“奧特曼LoRA案\"的判決,則充分體現(xiàn)了這一原則,均扭轉(zhuǎn)了我國以往涉數(shù)據(jù)不正當競爭案件的判定模式。在當前的司法實踐中,我國涉數(shù)據(jù)不正當競爭案件糾紛的司法判定模式可分為兩種:一是以權(quán)益受損推定行為不正當;二是以多元利益考量判定行為正當性[5]。對此,前者的判定模式誤解了權(quán)益受損系市場競爭常態(tài)之本質(zhì),后者的判定模式則缺乏對多元利益平衡的方法論關(guān)注?!皧W特曼LoRA案”的判決對既有司法裁判模式進行了重構(gòu),一改權(quán)益侵害式判定范式并在方法論上做出了初步嘗試。然而,該案件關(guān)于行為在法律上是否具備正當性的判定理路依然存在不少缺憾,亟待予以反思并廓清思路。
當前國內(nèi)外出現(xiàn)的生成式人工智能涉數(shù)據(jù)不正當競爭的案件有限,影響較為廣泛的僅有 Andersen v.Stability AI案①和奧特曼LoRA案。理論研究層面,由于數(shù)據(jù)極易產(chǎn)生規(guī)模效應,且此前我國學界關(guān)于生成式人工智能的競爭法研究大多聚焦于反壟斷領(lǐng)域②,行為正當性認定的系統(tǒng)性研究尚未形成完整框架。奧特曼LoRA案出現(xiàn)后,關(guān)于案件的討論也局限于對司法裁判的簡單評述③,而透過表象挖掘背后的理論癥結(jié)之研究尚付闕如。理論的發(fā)展必須緊隨實踐,生成式人工智能引發(fā)的數(shù)據(jù)不正當競爭案件與既往判例存在顯著不同,其訓練數(shù)據(jù)來源多樣、生成過程重組數(shù)據(jù)、模型結(jié)果真假難辨,導致傳統(tǒng)裁判路徑在正當性評價上出現(xiàn)適用偏差。鑒于此,本文將在反不正當競爭法語境下,結(jié)合生成式人工智能的本質(zhì)特征剖析其所涉數(shù)據(jù)競爭行為的類型和特殊性,以“奧特曼LoRA案”為例,審視與反思其裁判理路困境,繼而提煉出類案在裁判理念、裁判范式和裁判規(guī)則三重維度的體系化完善路徑。
二、生成式人工智能涉數(shù)據(jù)競爭行為正當性判定的理論闡釋
生成式人工智能的介入使得傳統(tǒng)數(shù)據(jù)不正當競爭的認定愈發(fā)復雜?,F(xiàn)有裁判模式在面對生成式人工智能的特殊性時,顯露出諸多局限。通過對生成式人工智能涉數(shù)據(jù)競爭行為的類型化解構(gòu),深人剖析其內(nèi)在邏輯的特殊之處,既可揭示其技術(shù)實質(zhì)與法律屬性,又能助力于厘清不正當競爭行為在各環(huán)節(jié)中的法律邊界,進而為司法實踐提供有力指引。
(一)生成式人工智能涉數(shù)據(jù)競爭行為的類型化解構(gòu)
生成式人工智能的技術(shù)流程可劃分為數(shù)據(jù)獲取、數(shù)據(jù)訓練和內(nèi)容生成三階段。以此為基準,生成式人工智能涉數(shù)據(jù)競爭行為初步劃分三類:一是發(fā)生在數(shù)據(jù)獲取階段不正當數(shù)據(jù)獲取和阻礙數(shù)據(jù)獲取行為;二是數(shù)據(jù)訓練階段妨礙數(shù)據(jù)使用和超越授權(quán)范圍使用數(shù)據(jù)行為;三是內(nèi)容生成階段數(shù)據(jù)不當利用行為?;谛袨檫壿嫷目剂?,阻礙獲取與妨礙使用實質(zhì)上構(gòu)成干擾行為,越權(quán)使用與不當利用系為濫用行為。由此,生成式人工智能涉數(shù)據(jù)不正當競爭行為的類型進一步解構(gòu)為不正當數(shù)據(jù)獲取行為、數(shù)據(jù)干擾行為及數(shù)據(jù)濫用行為。
1.生成式人工智能不正當數(shù)據(jù)獲取行為
數(shù)據(jù)作為生成式人工智能的燃料[6]56,其獲取能力直接決定市場競爭力。部分生成式人工智能運營商為爭奪數(shù)據(jù)資源優(yōu)勢,利用生成式人工智能實施不正當數(shù)據(jù)獲取行為,具體表現(xiàn)為不正當數(shù)據(jù)爬取和進一步衍生的數(shù)據(jù)劫持。
當數(shù)據(jù)爬取行為的規(guī)模和頻率異常、違反了Robots協(xié)議等情況下,該爬取行為可能構(gòu)成不正當競爭。生成式人工智能的崛起更新了傳統(tǒng)數(shù)據(jù)爬蟲的模式,突破了其原有的范圍和數(shù)量限制。以典型的生成式人工智能數(shù)據(jù)爬取工具GPTBot和Claude 為例,其單月爬取量分別為5.69億次和3.70億次,占據(jù)了顯著份額[1]。Crawl4AI等智能爬蟲工具還能夠高效處理動態(tài)內(nèi)容,通過大模型將數(shù)據(jù)轉(zhuǎn)換為適合生成式人工智能處理的格式,極大地提升了數(shù)據(jù)采集和處理的效率①。更具突破的是,生成式人工智能通過自動化的網(wǎng)絡爬取,對反爬蟲機制進行破解[13]。生成式人工智能爬取的數(shù)據(jù)可能包含他人享有權(quán)益且禁止爬取的部分,極有可能引發(fā)隱私泄漏風險。作為權(quán)益受損方卻由于技術(shù)壁壘,難以掌握抵御機制[14]。
當生成式人工智能的數(shù)據(jù)爬取行為進一步突破了第三方網(wǎng)站的限制措施、對其他經(jīng)營者的網(wǎng)絡產(chǎn)品或服務構(gòu)成了實質(zhì)性替代時,則可能構(gòu)成數(shù)據(jù)劫持。生成式人工智能介人下的數(shù)據(jù)劫持行為極大擴張了劫持的范圍和影響。以《紐約時報》訴OpenAI案為例,ChatGPT通過爬取數(shù)百萬篇付費文章構(gòu)建知識庫,用戶可直接獲取完整報道內(nèi)容,導致《紐約時報》官網(wǎng)訪問量下降[15]。OpenAI的數(shù)據(jù)劫持行為不僅侵占了《紐約時報》的流量,也切斷了內(nèi)容創(chuàng)作者通過作品傳播獲得社會認可的價值鏈條,給《紐約時報》造成了巨大損失。
2.生成式人工智能數(shù)據(jù)干擾行為
隨著生成式人工智能技術(shù)商業(yè)化的加深,圍繞數(shù)據(jù)獲取和數(shù)據(jù)封鎖的爭議愈發(fā)引起相關(guān)行業(yè)和監(jiān)管者的關(guān)注。在數(shù)據(jù)競爭行為中,干擾”主要體現(xiàn)為對數(shù)據(jù)獲取的阻礙和對數(shù)據(jù)使用的妨礙。生成式人工智能在數(shù)據(jù)干擾行為中兼具干擾方和被干擾方雙重身份。
作為干擾方,生成式人工智能極有可能生成假數(shù)據(jù)、假信息干擾競爭對手的決策并滲透輿論場。計算機科學中廣為流傳的\"垃圾進,垃圾出\"的觀點亦適用于生成式人工智能[16]8。生成式人工智能提供的答案由數(shù)據(jù)堆砌重組而成,其生成信息的可信度有賴于訓練所用數(shù)據(jù)集的質(zhì)量。然而,生成式人工智能本身缺乏過濾不良信息的能力。Common Crawl作為目前最大的免費數(shù)據(jù)集,也是大型語言模型LLMs預訓練數(shù)據(jù)的重要來源之一。Common Crawl所獲得的數(shù)據(jù)本身具有局限性和偏見,而LLMs卻缺乏對過濾數(shù)據(jù)集中不當內(nèi)容的優(yōu)化方案[17]。不恰當?shù)膬?nèi)容指向不正確的決策,生成式人工智能生成的不可靠信息可能成為一把“雙刃劍”。當經(jīng)營者和消費者均使用生成式人工智能搜索相關(guān)信息時:一方面,經(jīng)營者可能因為生成結(jié)果的偏差導致戰(zhàn)略決策失誤;另一方面,消費者可能因為具有偏見的消費建議對其他經(jīng)營者留下負面印象,影響其他競爭者的商譽。
作為被干擾方,生成式人工智能自身極有可能因數(shù)據(jù)驅(qū)動的屬性陷入封鎖困境。一方面,上游數(shù)據(jù)庫為維護競爭優(yōu)勢,可能通過限制生成式人工智能服務商獲取訓練數(shù)據(jù);另一方面,人工智能服務商亦可與數(shù)據(jù)庫聯(lián)合,限制其他生成式人工智能服務商使用數(shù)據(jù)庫。在傳統(tǒng)數(shù)據(jù)不正當競爭中,類似LinkedIn案②中平臺試圖保護數(shù)據(jù)商業(yè)價值,限制競爭對手獲取數(shù)據(jù)的“封鎖”行為屢見不鮮。生成式人工智能的發(fā)展使數(shù)據(jù)價值倍增,但關(guān)于數(shù)據(jù)控制權(quán)的爭奪并未緩解。實踐中,微軟與OpenAI的合作中,一方提供數(shù)據(jù),另一方提供智能處理能力的模式,形成新業(yè)態(tài)下的優(yōu)勢互補[18]。但令人疑慮的是,微軟和OpenAI 皆為行業(yè)領(lǐng)頭羊,倘若雙方合作協(xié)議中達成了將數(shù)據(jù)封鎖在平臺內(nèi)部的條款,那么將形成隱性的數(shù)據(jù)封鎖,引發(fā)排他性交易風險。
3.生成式人工智能數(shù)據(jù)濫用行為
在數(shù)據(jù)使用階段,生成式人工智能可能因數(shù)據(jù)濫用產(chǎn)生兩類典型行為:一是對數(shù)據(jù)的越權(quán)使用;二是對已獲取數(shù)據(jù)的不當利用。
數(shù)據(jù)越權(quán)使用主要指生成式人工智能未經(jīng)授權(quán)或超越了授權(quán)范圍使用數(shù)據(jù),將數(shù)據(jù)用于未經(jīng)許可的訓練模型或業(yè)務場景。生成式人工智能訓練的數(shù)據(jù)主要來源于公開數(shù)據(jù)、私有數(shù)據(jù)、網(wǎng)絡爬取數(shù)據(jù)等[16]89,數(shù)據(jù)的質(zhì)量和可信度存在顯著差異。生成式人工智能處理的數(shù)據(jù)規(guī)模遠超傳統(tǒng)合規(guī)審查機制的承載閾值。我國個人信息保護法中的“知情—同意”原則為生成式人工智能獲取語料庫設(shè)置了門檻,但在生成式人工智能處理海量數(shù)據(jù)的過程中,要逐一貫徹\"知情—同意”原則既效率低下又困難重重,凸顯了現(xiàn)有法律框架應對生成式人工智能問題的制度性不足[19]。由此,生成式人工智能訓練的數(shù)據(jù)庫在客觀上難以完全控制在授權(quán)范圍內(nèi)?,F(xiàn)實中,使用未授權(quán)數(shù)據(jù)進行生成模型訓練可能導致不正當競爭。在Andersenv.StabilityAI案中,平臺將用戶上傳的畫作用于生成式人工智能繪畫訓練,導致生成的畫作風格與原作高度相似①。該行為不僅容易導致消費者混淆風格類似的生成式人工智能畫作,擾亂原創(chuàng)藝術(shù)家市場,還極有可能陷入版權(quán)糾紛。
生成式人工智能的技術(shù)原理,決定其輸出必然包含原始數(shù)據(jù)解構(gòu)后再次重組的痕跡。此種數(shù)據(jù)重組的風險正是不正當競爭、版權(quán)糾紛、隱私泄露的癥結(jié)所在。生成式人工智能可深人解析他人數(shù)據(jù)特征,并批量生成其他內(nèi)容。在此過程中,數(shù)據(jù)的不當利用意味著生成式人工智能:一方面可深入分析根據(jù)他人作品特征,生成足以產(chǎn)生混淆的產(chǎn)品,導致商業(yè)混淆;另一方面則可穿透重要數(shù)據(jù),挖掘個人隱私。更為隱蔽的是,即便使用經(jīng)授權(quán)用于訓練的數(shù)據(jù),生成式人工智能仍可在算法的拆解和重組下生成侵犯個人隱私的結(jié)果,從而實現(xiàn)精準營銷。此類數(shù)據(jù)濫用行為,既是對市場競爭的扭曲,也是對消費者權(quán)益的貶損。
(二)生成式人工智能涉數(shù)據(jù)競爭行為正當性判定的特殊性剖析
生成式人工智能將競爭重心從數(shù)據(jù)采集和分析應用擴展到數(shù)據(jù)拆解和數(shù)據(jù)重組,形成了一種新型競爭模式。生成式人工智能的運行架構(gòu)主要可以分為“數(shù)據(jù)獲取—數(shù)據(jù)訓練—內(nèi)容生成”三個步驟,其運作機理決定了生成式人工智能涉數(shù)據(jù)競爭導致的風險、競爭模式,以及隨之而來的司法實踐問題均有別于傳統(tǒng)數(shù)據(jù)競爭。
1.海量數(shù)據(jù)獲取導致三重風險
高質(zhì)量的訓練依賴海量數(shù)據(jù)喂養(yǎng),生成式人工智能若不能通過合理途徑獲取數(shù)據(jù),其模型性能將會極大衰減。為提升模型輸出質(zhì)量,必須不斷擴充和更新訓練數(shù)據(jù)集,極有可能突破數(shù)據(jù)獲取、儲存、使用的合理邊界。因此,生成式人工智能的數(shù)據(jù)獲取將引發(fā)三重風險:一是數(shù)據(jù)獲取范圍突破邊界導致隱私泄露。相關(guān)企業(yè)可能為追求優(yōu)質(zhì)數(shù)據(jù)對數(shù)據(jù)源進行更寬泛的挖掘,訓練集的組成不再局限于經(jīng)過嚴格篩選和脫敏處理的合規(guī)數(shù)據(jù),個人隱私數(shù)據(jù)和敏感數(shù)據(jù)可能被投入模型訓練,增加了隱私泄露的風險。二是數(shù)據(jù)獲取手段不當催生各類糾紛。生成式人工智能通過網(wǎng)絡爬取和API接口等方式獲得數(shù)據(jù),難以嚴格區(qū)分公開數(shù)據(jù)與隱私數(shù)據(jù)。倘若數(shù)據(jù)授權(quán)協(xié)議存在未明確某類數(shù)據(jù)能否被投入生成式人工智能訓練的模糊條款,將導致越權(quán)采集并引發(fā)不正當競爭糾紛。三是優(yōu)質(zhì)數(shù)據(jù)獲取壓力促成惡性競爭循環(huán)。在爭奪優(yōu)質(zhì)數(shù)據(jù)的商業(yè)競爭壓力下,企業(yè)對數(shù)據(jù)合規(guī)和隱私保護的忽視將形成一種“激勵機制”,導致超出授權(quán)范圍攫取數(shù)據(jù)的現(xiàn)象更為普遍。與傳統(tǒng)數(shù)據(jù)競爭中的基于固定場景的定向數(shù)據(jù)獲取不同,為提升算法性能,生成式人工智能平臺對數(shù)據(jù)的需求趨近于無限,以上突破原有數(shù)據(jù)獲取模式導致的三重風險,亦成為數(shù)據(jù)競爭模式躍遷的基奠。
2.數(shù)據(jù)訓練模式推動競爭躍遷
與傳統(tǒng)數(shù)據(jù)使用主要集中在靜態(tài)的數(shù)據(jù)分析不同,生成式人工智能在訓練數(shù)據(jù)過程中,通過模型對數(shù)據(jù)進行深度處理和不斷優(yōu)化。此種情況下,競爭不僅局限于數(shù)據(jù)本身,更擴張為數(shù)據(jù)訓練、模型運作和生成內(nèi)容的全面較量。具言之,生成式人工智能數(shù)據(jù)訓練可能在以下三個層面推動競爭模式躍遷。
第一,競爭重點從數(shù)據(jù)直接應用轉(zhuǎn)化為系統(tǒng)模型訓練。傳統(tǒng)數(shù)據(jù)競爭側(cè)重于數(shù)據(jù)的靜態(tài)積累與直接應用,即企業(yè)通過數(shù)據(jù)獲取和分析獲得優(yōu)勢。生成式人工智能則將數(shù)據(jù)轉(zhuǎn)化為模型參數(shù)并生成對應內(nèi)容。此種轉(zhuǎn)化不僅是對數(shù)據(jù)的簡單存儲和分析,而是通過復雜的算法提煉出有價值的信息,從而生成新的數(shù)據(jù)輸出,使競爭重點從“誰擁有最多的數(shù)據(jù)\"轉(zhuǎn)向“誰擁有更高效的訓練模型和生成能力”。
第二,競爭機制從數(shù)據(jù)規(guī)模獲取延伸到數(shù)據(jù)重構(gòu)生成。生成式人工智能的進步依賴于不斷迭代的閉環(huán)訓練,即從大規(guī)模數(shù)據(jù)采集、語料體系預處理,到“模型預訓練—微調(diào)—反饋優(yōu)化”[20],這一過程實現(xiàn)了數(shù)據(jù)與模型的動態(tài)交互。企業(yè)可以通過技術(shù)創(chuàng)新不斷突破數(shù)據(jù)使用的邊界,甚至在數(shù)據(jù)授權(quán)不足的情況下,通過算法重構(gòu)來彌補數(shù)據(jù)資源的不足,從而在競爭中獲得更高的靈活性和更大的優(yōu)勢。以技術(shù)為核心的競爭機制,促使競爭優(yōu)勢從數(shù)據(jù)數(shù)量優(yōu)勢延伸至算法創(chuàng)新和內(nèi)容生成轉(zhuǎn)型。
第三,競爭范圍從單一環(huán)節(jié)擴張至數(shù)據(jù)流通全環(huán)節(jié)。生成式人工智能平臺的運作不僅依賴單一的數(shù)據(jù)占有或數(shù)據(jù)使用,而是通過開放API、平臺化服務以及跨行業(yè)合作,形成了從數(shù)據(jù)供給、模型訓練到內(nèi)容生成的全鏈條競爭模式。傳統(tǒng)數(shù)據(jù)競爭糾紛往往誕生于單一流通環(huán)節(jié),如“微博訴脈脈案\"①圍繞數(shù)據(jù)獲取、“大眾點評訴百度案”②聚焦數(shù)據(jù)使用。生成式人工智能涉數(shù)據(jù)競爭糾紛則涉及多個環(huán)節(jié),如“《紐約時報》訴OpenAI案\"中,《紐約時報》不僅控訴OpenAI對文章的越權(quán)爬取,還指控其使用文章作為訓練數(shù)據(jù)[21]。生成式人工智能使數(shù)據(jù)競爭在“獲取—儲存—使用”的全環(huán)節(jié)滲透,使競爭從單一環(huán)節(jié)升級為整體,進一步加速了市場資源整合與競爭格局重塑。
3.模型輸出特性催生司法難題
生成式人工智能通過數(shù)據(jù)重構(gòu)輸出新的內(nèi)容,具有高度的創(chuàng)造性。在不完全授權(quán)的情況下,生成式人工智能可間接復現(xiàn)原始數(shù)據(jù)中的關(guān)鍵要素,造成隱私威脅?!半[性再現(xiàn)”不僅增加了數(shù)據(jù)授權(quán)管理的難度,也使得相關(guān)不正當競爭行為更難以被既有法律條款直接覆蓋。
在傳統(tǒng)數(shù)據(jù)不正當競爭糾紛中,行為模式的拆解相對清晰,責任方的構(gòu)成也相對明確。當前相關(guān)案件裁判雖未統(tǒng)一范式,但也形成了較為一致的結(jié)論。反觀生成式人工智能涉數(shù)據(jù)不正當競爭糾紛,其復雜性體現(xiàn)為:“生成”本身既包括了最后生成的內(nèi)容,也包含生成數(shù)據(jù)的來源和生成的過程,責任主體由數(shù)據(jù)提供者、算法設(shè)計者、生成式人工智能服務提供商等各個環(huán)節(jié)的參與者共同構(gòu)成。在Andersenv.Stability AI案③中,生成式人工智能獲取母公司旗下圖庫作品,在未經(jīng)授權(quán)的情況下將作品用于模型訓練,最終生成的作品還投人市場使用,案件原告也將模型開發(fā)者、生成式人工智能繪畫平臺、母公司圖庫一同起訴。生成式人工智能涉數(shù)據(jù)競爭糾紛中的不確定性和衍生問題給司法實踐造成極大阻礙(見表1)。
司法機關(guān)秉持的裁判理念是解決上述問題的關(guān)鍵。在傳統(tǒng)數(shù)據(jù)不正當競爭糾紛中,法院基于對既有競爭利益的保護忽視了商業(yè)模式的創(chuàng)新,短期內(nèi)雖然維護了市場秩序,但長此以往必然對市場業(yè)態(tài)的良性發(fā)展造成阻礙。在我國生成式人工智能涉數(shù)據(jù)不正當競爭首案“奧特曼LoRA案”中,兩審法院秉持的“包容審慎\"理念給予生成式人工智能充足的發(fā)展和試錯空間①。鑒于“包容審慎\"理念在司法領(lǐng)域運用較少,其在具體裁判中的內(nèi)涵構(gòu)成尚不明確,法官對理念的主觀解讀可能造成裁判結(jié)果出現(xiàn)偏差,故而在現(xiàn)階段難以對裁判范式和具體裁判規(guī)則進行有效指導。
綜上所述,基于技術(shù)流程,生成式人工智能涉數(shù)據(jù)競爭行為具體可分為數(shù)據(jù)不當獲取行為、數(shù)據(jù)干擾行為和數(shù)據(jù)濫用行為。相較于傳統(tǒng)數(shù)據(jù)競爭,生成式人工智能的數(shù)據(jù)驅(qū)動屬性可能突破數(shù)據(jù)獲取邊界從而引發(fā)三重風險,并推動數(shù)據(jù)競爭從數(shù)據(jù)本身擴張至數(shù)據(jù)訓練、模型運作和生成內(nèi)容各個環(huán)節(jié),并且各環(huán)節(jié)涉及的復雜主體進一步催生新的司法難題。
三、生成式人工智能涉數(shù)據(jù)競爭行為的實踐與反思
隨著技術(shù)邊界的拓寬,生成式人工智能應用涵蓋了眾多場景。當前,我國專門針對生成式人工智能涉數(shù)據(jù)不正當競爭的司法判例僅有一例,但隨著生成式人工智能技術(shù)的商業(yè)化普及,相關(guān)糾紛將逐漸涌現(xiàn)。如前所述,生成式人工智能帶來了一系列司法難題。對此,本文將以國內(nèi)首例生成式人工智能涉數(shù)據(jù)競爭糾紛判例——奧特曼LoRA案為樣本,以其所屬的收集、訓練他人作品并生成新的內(nèi)容為具體場景,對該案的裁判理路進行分析,試圖通過以小見大的方式揭示生成式人工智能案件的司法認定難點。
(一)奧特曼LoRA模型不正當競爭糾紛案的理路觀察
基本案由:上海某文化發(fā)展公司(以下簡稱“文化發(fā)展公司”)是經(jīng)授權(quán)獲得奧特曼系列形象的知識產(chǎn)權(quán)人,杭州某智能科技股份有限公司(以下簡稱“智能科技公司”)是生成式人工智能平臺的經(jīng)營者。智能科技公司運營的生成式人工智能平臺使用的LoRA模型將用戶上傳的與奧特曼形象相似的圖片用于訓練,由此生成的圖片可任意下載、轉(zhuǎn)發(fā)。為此,文化發(fā)展公司訴稱,智能科技公司的生成式人工智能服務行為因違反誠信原則而構(gòu)成不正當競爭。一審法院判決認定該行為不構(gòu)成不正當競爭。對此,文化發(fā)展公司二審另主張對奧特曼作品進行“定向訓練”的生成和發(fā)布構(gòu)成不正當競爭。二審法院再次判定該主張不成立。
奧特曼LoRA案作為我國生成式人工智能涉數(shù)據(jù)競爭第一案,司法機關(guān)裁判理念凸顯了司法機關(guān)對新興技術(shù)發(fā)展的特殊考量。一審法院在判決中著重闡釋了生成式人工智能技術(shù)的正向作用?;凇白杂筛偁帯钡慕嵌龋墒饺斯ぶ悄芡ㄟ^個性化內(nèi)容定制優(yōu)化資源配置效率,以技術(shù)驅(qū)動市場創(chuàng)新;基于“公平競爭”的角度,本案中生成式人工智能的應用未對其他競爭者造成不當干擾,也未在實質(zhì)上侵擾消費者的合法權(quán)益。二審法院從促進科技進步的角度出發(fā),認為對生成式人工智能的行為認定宜采用相對寬松包容的認定標準。綜合以上裁判思路,兩審法院均未采取傳統(tǒng)數(shù)據(jù)不正當競爭的裁判路徑,亦未以不確定的風險作為生成式人工智能會產(chǎn)生負面影響的依據(jù),而是以動態(tài)競爭觀衡量利益得失,將包容審慎的裁判理念貫穿審理始終。
案件爭議焦點在于智能科技公司的行為是否因違反《中華人民共和國反不正當競爭法》中的“商業(yè)道德”條款而構(gòu)成不正當競爭?!吧虡I(yè)道德”條款作為涉數(shù)據(jù)競爭案件的正當性判定標準,其內(nèi)容高度抽象,司法實踐中常采用行業(yè)慣例或是法官自創(chuàng)的路徑將其具體化。本案中,兩審法院均從反不正當競爭法“行為規(guī)制法”的屬性出發(fā)構(gòu)建細化商業(yè)道德條款的裁判范式,但在具體范式選擇上存在差異。一審法院認為,判斷行為是否構(gòu)成不正當競爭,關(guān)鍵在于其擾亂市場競爭秩序與否?;诜床徽敻偁幏ǖ恼w價值取向,一審法院將市場秩序解構(gòu)為“自由競爭”和“公平競爭”兩個維度,以此為參照判斷行為的正當性。二審法院則在市場競爭秩序的基礎(chǔ)上,通過主客觀兩方面判斷其他經(jīng)營者和消費者的合法權(quán)益是否受損。
裁判范式的進一步執(zhí)行有賴于更為具體的裁判規(guī)則。兩審法院對裁判規(guī)則的選擇有所不同。一審法院以“技術(shù)中立”規(guī)則作為判定智能科技公司的行為是否破壞“自由競爭”和\"公平競爭”的參照。一審法院認為生成式人工智能的技術(shù)本身中立。一方面,競爭優(yōu)勢的此消彼長是市場競爭常態(tài),智能科技公司的行為并未對他人合法權(quán)益造成實質(zhì)性損害;另一方面,智能科技公司經(jīng)營的生成式人工智能平臺能夠有效增長用戶福利,促進文化事業(yè)發(fā)展。由此,一審法院認為智能科技公司并未利用生成式人工智能技術(shù)破壞市場競爭秩序,不構(gòu)成不正當競爭。針對“定向訓練”構(gòu)成不正當競爭的訴請,二審法院則以“最少且必要\"規(guī)則作為判斷智能科技公司的行為是否對其他經(jīng)營者和消費者合法權(quán)益造成侵害的依據(jù)。二審法院認為,要求生成式人工智能服務商對輸入的每一份數(shù)據(jù)進行查驗不具有可行性,既會增加監(jiān)管壓力,也會阻礙科技發(fā)展。此種情況下,生成式人工智能服務提供商所負有的注意義務應與其能力相適應。本案中,智能科技公司通過人工審核機制、內(nèi)容安全審核服務、用戶反饋渠道等方式履行了注意義務,符合“最小且必要”,因此不構(gòu)成不正當競爭。
由此可知,奧特曼LoRA案標志著我國司法機關(guān)對技術(shù)創(chuàng)新和市場秩序平衡思路進行了結(jié)構(gòu)性調(diào)整。法院不再簡單沿襲競爭秩序受損或權(quán)益受損的傳統(tǒng)裁判理路,而是給予新興技術(shù)一定的發(fā)展空間,對后續(xù)案件裁判具有顯著示范意義。
(二)生成式人工智能涉數(shù)據(jù)競爭行為正當性判定的困境揭示
作為我國生成式人工智能涉數(shù)據(jù)競爭第一案,奧特曼LoRA案在無先例可循的情況下,突破了以往裁判理路,彰顯了司法實踐的適應性轉(zhuǎn)型。然而,類案缺失也導致案件裁判理路存在現(xiàn)實困境。
第一,在裁判理念層面。兩審法院對“包容審慎”裁判理念的適用彰顯了司法對科技創(chuàng)新的積極回應,但其內(nèi)涵及構(gòu)成要件的缺位可能對案件具體裁判造成困擾。2017年《政府工作報告》首次提出在制定新興產(chǎn)業(yè)監(jiān)管規(guī)則時要秉持包容審慎原則[22]?!鞍輰徤鳌笔俏覈谛聵I(yè)態(tài)下探索監(jiān)管模式的重要原則,當前學術(shù)研究也多聚焦于行政監(jiān)管領(lǐng)域①。司法裁判層面的包容審慎理念尚未形成可操作框架,實際運用過程中可能出現(xiàn)主客觀雙重風險。主觀上,內(nèi)涵與構(gòu)成要件的缺位導致法官在案件審理過程中過于依賴主觀判斷,形成不同的解釋通路,致使同案不同判情況產(chǎn)生,動搖法律的可預期性和穩(wěn)定性??陀^上,未經(jīng)嚴密論證便將“包容審慎\"理念運用到生成式人工智能的司法裁判中,導致理論解釋難以清晰錨定新興技術(shù)行為的合法邊界,不法行為藏身于“包容審慎”中,實質(zhì)弱化了司法對不正當競爭行為的剛性約束。
第二,在裁判范式層面,兩審法院雖通過不同的裁判范式將“商業(yè)道德”具體化,但仍包含主觀道德判斷,暴露出其與生成式人工智能特性的結(jié)構(gòu)性錯配。一審法院以市場競爭秩序為切入點,構(gòu)建“自由競爭”和\"公平競爭”兩個判斷基準。這種裁判范式在邏輯框架上具有自洽性,卻在具體論證環(huán)節(jié)存在疏漏。一審法院認為生成式人工智能顯著提高了創(chuàng)作效率,符合“效率優(yōu)先”的自由競爭要求。但是,此種觀點存在的問題是:一方面,以“效率優(yōu)先”為導向的自由競爭能促進生產(chǎn)力發(fā)展;另一方面,自由競爭是無法通過法律體系中的禁止性規(guī)定消除的競爭形態(tài),瓜分市場和設(shè)置準人門檻都是自由競爭的典型后果[25]一審法院未結(jié)合案件具體情況對生成式人工智能平臺的行為進行客觀評價,模糊了技術(shù)創(chuàng)新與市場秩序的本質(zhì)關(guān)聯(lián)。二審法院針對新提出的訴請轉(zhuǎn)向了主客觀結(jié)合判斷的范式。主觀上,二審法院認定生成式人工智能平臺不承擔數(shù)據(jù)逐條審查的義務,并以其設(shè)置的反饋機制推斷不存在主觀惡意。然而,法院未實際考察反饋機制的實質(zhì)運作效能,生成式人工智能平臺可能并未建立配套處理機制或怠于處理反饋建議,將導致類似情況反復發(fā)生??陀^上,二審法院沿襲了一審法院從自由競爭和公平競爭兩個維度對案涉公司商業(yè)模式合法性和正當性的判斷,并未對其論證的缺漏進行補強。構(gòu)建“商業(yè)道德”條款具體化的裁判范式的是當前數(shù)據(jù)競爭案件判決的難點。本案兩審法院一定程度上突破了既往范式對競爭利益的過度保護和對技術(shù)驅(qū)動的商業(yè)模式的簡單否定,卻尚未完全破解生成式人工智能引發(fā)的規(guī)范解釋困境。
第三,在裁判規(guī)則層面,兩審法院采取的裁判方式在說理過程中均表現(xiàn)出適用局限。一審法院即便強調(diào)了反不正當競爭法行為規(guī)制法的屬性,但運用的“技術(shù)中立”規(guī)則在實際操作中弱化了對具體行為的深人審查。司法實踐中,“技術(shù)中立\"主要以主觀過錯作為判斷依據(jù),行為方無過錯時發(fā)生抗辯效力[26]。一審法院以“技術(shù)中立”切人,直接認定合理使用的技術(shù)及商業(yè)模式不會破壞市場競爭。一審法院既未進一步分析案涉平臺的主觀過錯,也未對技術(shù)的工具屬性有充分認知。生成式人工智能技術(shù)是競爭工具,本案正當性判定的核心應在于技術(shù)利用行為是否逾越法律邊界,而非單純依賴技術(shù)中立推定技術(shù)無錯。二審法院則采用\"最小且必要”規(guī)則來平衡其他經(jīng)營者和消費者的合法權(quán)益?!白钚∏冶匾币?guī)則來源于“大眾點評訴百度案”,核心在于市場經(jīng)營者應采取對其他經(jīng)營者而言損害最低的競爭手段①?!白钚∏冶匾币?guī)則固然提供了相對可操作的衡量框架,但主要聚焦于分析對特定利益主體造成直接損害,忽略了對整體利益的系統(tǒng)性考量。具體而言,二審法院對“最小且必要”規(guī)則的適用存在雙重局限:一是法院以“海量數(shù)據(jù)\"作為辯解,降低了平臺應承擔的責任閾值,忽視了平臺通過使用大量未獲得充分授權(quán)的數(shù)據(jù)進行訓練,可能引發(fā)數(shù)據(jù)來源風險、算法風險、數(shù)據(jù)濫用風險等[27];二是二審法院對其他經(jīng)營者與消費者合法權(quán)益的考量缺乏清晰界定,未能構(gòu)建動態(tài)性、系統(tǒng)性的評估機制,難以全面衡量生成式人工智能在推動社會進步、產(chǎn)業(yè)升級及維護市場公平競爭方面所產(chǎn)生的效應。
結(jié)合上述分析,奧特曼LoRA案雖突破了以往限制,但裁判理路的實際運用仍面臨裁判理念內(nèi)涵不明、裁判范式選擇存在分歧、裁判規(guī)則存在固有局限等重重阻礙。
四、生成式人工智能涉數(shù)據(jù)競爭行為正當性判定的理路廓清
生成式人工智能帶來的競爭模式躍遷與現(xiàn)行法律框架間的結(jié)構(gòu)張力,導致司法機關(guān)在行為正當性認定的過程中面臨三重困境。裁判理路的系統(tǒng)性再造能有效實現(xiàn)技術(shù)治理中創(chuàng)新容錯與風險防控的有機統(tǒng)一。為妥善處理未來可能發(fā)生的類似案件,亟需針對已有困境對裁判理念、裁判范式和裁判規(guī)則的選擇與構(gòu)建進行廓清。
(一)細化“包容審慎”裁判理念的內(nèi)涵要件
《生成式人工智能服務管理暫行辦法》第三條指出,關(guān)于生成式人工智能的發(fā)展要堅持包容審慎[4]包容審慎理念實際上是“有效市場”和“有為政府”的深度結(jié)合,具體表現(xiàn)為“放得活”和“管得住”[28]156。奧特曼LoRA案兩審裁判暴露的裁判范式與裁判規(guī)則適用局限與張力,映射出“包容審慎\"理念在司法場域應用中內(nèi)涵要件的缺位,進而導致包容邊界模糊、審慎程度不足。在“包容”層面,法院重點關(guān)注生成式人工智能技術(shù)的中立性,卻未明確技術(shù)創(chuàng)新與侵權(quán)行為的邊界。在“審慎”層面,二審雖引人“最小且必要\"規(guī)則,但平臺審查是否落實尚未可知。為進一步提升“包容審慎”理念在司法實踐中運用效果,可從以下三個方面構(gòu)建“包容審慎”理念的內(nèi)涵要件。
第一,確定市場失靈為干預邊界的理念邏輯?!鞍荨弊鳛榘輰徤骼砟畹暮诵膬r值取向之一,主張尊重市場的自我調(diào)節(jié)機制,并為生成式人工智能等新興業(yè)態(tài)預留充足的發(fā)展空間。市場競爭中,競爭優(yōu)勢的此消彼長和競爭損害的產(chǎn)生是市場常態(tài)。市場機制未能有效消除壟斷和不正當競爭現(xiàn)象,難以實現(xiàn)公平的法律價值是市場失靈的典型表現(xiàn)[29。競爭法的規(guī)制是市場新業(yè)態(tài)發(fā)展過程中的法律底線和市場邊界,生成式人工智能自由發(fā)展抑或約束限制,二者邊界亦在于行為是否違反競爭法,是否導致市場不能有效調(diào)控而陷入失靈狀態(tài)[30]。司法機關(guān)作為被動角色,嚴格遵循“不告不理”,必然不能主動對市場主體行為進行審查。當案件進人司法流程,法院應充分維護生成式人工智能的發(fā)展空間以實現(xiàn)對“包容審慎”理念的貫徹落實,當且僅當市場確實進入失靈狀態(tài)時,方可果斷介入干預。
第二,審慎掌握行為判斷的司法尺度?!皩徤鳌弊鳛榘輰徤骼砟畹牧硪粌r值面向,要求司法機關(guān)在認定行為正當與否的具體過程中保持謙抑。評估生成式人工智能等新興產(chǎn)業(yè)中產(chǎn)生的不正當競爭糾紛時,需綜合考量是否違反基本法理以及是否對社會秩序造成顯著危害[31]。具體而言:在證據(jù)認定環(huán)節(jié),需以嚴謹?shù)呐e證標準證明行為與競爭損害之間存在直接且實質(zhì)的因果關(guān)系,同時確保所采集的證據(jù)具有客觀性、完整性和可驗證性;在規(guī)則適用層面,法院需綜合考量反不正當競爭法的基本原則和精神,充分考慮人工智能技術(shù)特性與市場創(chuàng)新需求,既不能簡單套用傳統(tǒng)規(guī)則,也不能片面追求技術(shù)創(chuàng)新效益。法律規(guī)則的穩(wěn)定和科技創(chuàng)新的變動之間存在天然張力[32]。司法機關(guān)應通過多維度、綜合性的審慎分析,在確保技術(shù)發(fā)展的活力的同時,防止對市場競爭秩序造成損害。
第三,恪守否定評價的司法克制立場?!鞍輰徤鳌崩砟钫宫F(xiàn)“放”與“管”辯證結(jié)合的內(nèi)涵,要求不過分憂慮科技創(chuàng)新帶來的市場風險,避免以風險為由對市場主體行為進行干預的非理性行為[28]157。在屏蔽視頻廣告類案件中,我國司法實踐長期側(cè)重保護既有商業(yè)模式,忽視了技術(shù)革新對市場生態(tài)的優(yōu)化功能。德國聯(lián)邦最高法院在2018年的電視精靈案中指出,廣告屏蔽技術(shù)客觀上倒逼內(nèi)容平臺提升廣告質(zhì)量與用戶匹配精準度,最終通過市場競爭實現(xiàn)消費者福利的整體增進①。風險本是尚未發(fā)生之事,法律對技術(shù)風險的過度防御,可能反向抑制市場機制的自我優(yōu)化。在“包容審慎”理念的指導下,法院不能僅因風險存在便給予行為否定性評價。換言之,法院對生成式人工智能競爭行為正當性的認定應保持克制,未有充分依據(jù)不應認定為不正當。
當前,司法實踐已呈現(xiàn)積極轉(zhuǎn)向。無論是我國的奧特曼LoRA案還是美國 Andersen v.StabilityAI案,法院均未對生成式人工智能涉數(shù)據(jù)行為給予否定性評價,充分彰顯了司法機關(guān)對創(chuàng)新包容和秩序維護的理性平衡。
(二)堅守“利益衡量”裁判范式的分析路徑
無論是一審還是二審的裁判范式,都未對“商業(yè)道德”條款的具體化嘗試。“商業(yè)道德”條款本身極為抽象,難以通過單純的行為判斷、主客觀考量進行判斷。經(jīng)過了實踐和理論的不斷探索,司法實踐中出現(xiàn)了大量以利益衡量作為裁判范式的案件,對個人利益與公共利益①、人身權(quán)益和財產(chǎn)權(quán)益②等各類利益沖突進行比較衡量。利益衡量是對案件進行實質(zhì)性判斷的法解釋方法,要求法院認定行為正當性時必須充分考慮裁判結(jié)果可能對各方利益造成的現(xiàn)實影響,同時謹慎甄別各方當事人主張的利益訴求是否客觀真實[33]。相較于抽象的商業(yè)道德范式而言,利益衡量范式能準確厘清核心利益,有效分析關(guān)涉各層級的利益種類,劃分利益的優(yōu)先程度,從而實現(xiàn)各方利益的整體最大化[34]。
生成式人工智能涉數(shù)據(jù)競爭中涉及的利益相關(guān)方亦是責任相關(guān)方,主要包括數(shù)據(jù)提供方、生成式人工智能服務提供商、平臺用戶和其他市場競爭者。法院對各方利益的衡量兼具復雜性和挑戰(zhàn)性,必須明確利益核心進而拓寬衡量路徑,以準確衡量案件裁判可能帶來的法律效果、社會效果和經(jīng)濟效果[35]。具體而言:
第一,數(shù)據(jù)提供方的利益核心在于維護數(shù)據(jù)涉及的知識產(chǎn)權(quán)、數(shù)據(jù)完整性及隱私安全,確保提供的數(shù)據(jù)不被未經(jīng)授權(quán)或不正當方式利用。法院在裁判過程中,應對生成式人工智能平臺數(shù)據(jù)使用流程進行審查,重點考察是否存在數(shù)據(jù)濫用、越權(quán)使用或數(shù)據(jù)隱私再現(xiàn)的現(xiàn)象。一方面,法院要考慮是否存在因不正當數(shù)據(jù)利用導致市場失靈;另一方面,法院還要維護消費者和其他經(jīng)營者對數(shù)據(jù)安全和公平競爭環(huán)境的信任,從而在整體上促成技術(shù)創(chuàng)新與公共利益協(xié)調(diào)發(fā)展的裁判結(jié)果。
第二,生成式人工智能服務提供商的利益核心在于保證技術(shù)創(chuàng)新和商業(yè)模式發(fā)展的充足空間,同時確保其在利用數(shù)據(jù)進行模型訓練與服務輸出時符合法律要求,不損害其他主體合法權(quán)益。在評估平臺行為時,法院應構(gòu)建一個多維度利益評估框架,既要考察平臺利用數(shù)據(jù)進行模型訓練和服務輸出是否對數(shù)據(jù)提供者、終端用戶和其他市場競爭者造成直接或間接損害,又要權(quán)衡這些損害與平臺創(chuàng)新推動的整體社會效益之間的關(guān)系。通過權(quán)衡短期競爭損害與長期整體利益,確保裁判結(jié)果既能維護公平競爭,又不致妨礙技術(shù)創(chuàng)新。
第三,生成式人工智能平臺用戶的利益核心與平臺生成的內(nèi)容相關(guān)。用戶依賴平臺獲得生成內(nèi)容,以輔助決策、獲取信息或進行創(chuàng)作。生成內(nèi)容的準確性、客觀性和合法性直接關(guān)系到用戶的使用體驗和權(quán)益。此外,平臺用戶的數(shù)據(jù)可能也參與到生成式人工智能的訓練中,平臺在數(shù)據(jù)采集、存儲和處理過程中應嚴格遵守隱私保護法律法規(guī),防止數(shù)據(jù)泄露、濫用或未經(jīng)授權(quán)的傳播。
第四,其他市場競爭者的利益核心在于市場公平競爭,保障其在技術(shù)研發(fā)和商業(yè)競爭中的平等參與。法院應綜合評估生成式人工智能平臺的行為對數(shù)據(jù)流通、技術(shù)研發(fā)和資源配置的影響,防止因數(shù)據(jù)封鎖而導致市場競爭失衡,進而阻礙其他競爭者的創(chuàng)新投入和商業(yè)發(fā)展的情況,確保裁判結(jié)果能促進數(shù)據(jù)開放和信息共享。
(三)拓寬“最少且必要”裁判規(guī)則的分析框架
反不正當競爭法作為“行為規(guī)制法”,跳脫了侵權(quán)法“權(quán)利侵害”的認定模式,強調(diào)對行為正當性的判定?!白钌偾冶匾币?guī)則作為利益衡量范式的具體展開,將市場經(jīng)營者采取的競爭手段對其他經(jīng)營者的損害是否最小,作為判斷行為正當與否的依據(jù)。二審法院運用“最少且必要”規(guī)則,衡量行為對利益相關(guān)方的影響,彌補了“技術(shù)中立”規(guī)則忽視反不正當競爭法作為“行為規(guī)制法”的缺陷。但“最少且必要”規(guī)則的作用面較窄,難以在生成式人工智能案件中系統(tǒng)衡量多方影響。面對數(shù)字經(jīng)濟時代下的數(shù)據(jù)權(quán)屬、算法歧視等新型糾紛,理論與實踐均嘗試通過比例原則建立更為精細的利益衡量分析范式。從功能上看,“最少且必要”規(guī)則與比例原則存在邏輯關(guān)聯(lián)。前者聚焦競爭損害的最小化控制,后者則通過目的“正當性、適當性、必要性和均衡性”[36]四項子原則,構(gòu)建層次分明的利益衡量框架。比例原則發(fā)端于德國警察法,是行政法中衡量干預適度性的重要原則[37]。近年來,比例原則的應用場域延伸至經(jīng)濟法。在奧特曼Lo-RA 案中,針對生成式人工智能涉數(shù)據(jù)競爭中涉及的多方主體,司法機關(guān)可通過比例原則的四項子原則完善利益衡量具體路徑。需注意的是,比例原則的域外適用寬嚴有別,鑒于生成式人工智能產(chǎn)業(yè)發(fā)展是否會對競爭秩序造成損害尚未定論,比例原則適用過程中應當堅守謙抑性理念,對具體行為進行柔和審查[38]。
以奧特曼LoRA案為例,比例原則的適用可做如下推演:首先,生成式人工智能平臺利用數(shù)據(jù)進行模型訓練和服務輸出,其根本目的是推動技術(shù)創(chuàng)新、提高產(chǎn)品質(zhì)量和滿足市場需求,符合公共利益和產(chǎn)業(yè)進步的要求。從整體上看,推動技術(shù)創(chuàng)新和提升服務效率是促進經(jīng)濟發(fā)展和社會進步的正當目的,符合“目的正當性”的要求。其次,“適當性”原則要求所采取的措施應能有效實現(xiàn)既定目的,重點在于手段與效果的適配性。在奧特曼LoRA案中,平臺采集和利用大量數(shù)據(jù)進行模型訓練,旨在不斷優(yōu)化算法性能和生成內(nèi)容的質(zhì)量,進而提升市場競爭力。這一做法能直接促進產(chǎn)品創(chuàng)新和服務改善,是適當且具有實際效果的。“適當”雖強調(diào)手段的有效性,但惡性手段不應包含在內(nèi)。如前所述,生成式人工智能通過獲取海量數(shù)據(jù)帶來的三重風險,要求在平臺運行過程中對數(shù)據(jù)隱私、版權(quán)和信息安全進行合理保障,確保技術(shù)創(chuàng)新與合法合規(guī)之間取得平衡。即使生成式人工智能平臺難以對海量數(shù)據(jù)進行一一核查,但在具體裁判過程中,法院有必要對其采取的防范措施進行實質(zhì)性檢驗,僅文字分析便下定論的結(jié)論可信度不足。再次,“必要性”原則要求在實現(xiàn)目標時,所采取的手段應為“最少且必要”,即不存在同樣能夠達到目標但侵害更小的替代方案,是對手段造成的損害程度的限制。奧特曼LoRA案中,平臺為了保證模型的高效訓練和優(yōu)質(zhì)輸出,不得不依賴大量數(shù)據(jù)作為支撐。有限的數(shù)據(jù)來源無法滿足創(chuàng)新和服務質(zhì)量的要求,通過多方渠道獲取大規(guī)模數(shù)據(jù)可以被視為必要的手段。平臺獲取的數(shù)據(jù)應通過數(shù)據(jù)篩選、脫敏等技術(shù),防范數(shù)據(jù)濫用和侵權(quán)風險,從而確保在實現(xiàn)創(chuàng)新目的的同時,對他人權(quán)益的影響降到最低,如此方能符合“適當性”原則要求。最后,“均衡性”原則要求在保護公共利益與限制個體權(quán)益之間實現(xiàn)合理平衡。在奧特曼LoRA案中,法院應在支持生成式人工智能技術(shù)創(chuàng)新和保護數(shù)據(jù)提供方、市場競爭者合法權(quán)益之間進行權(quán)衡。生成式人工智能平臺在推動技術(shù)進步和市場效率方面具有顯著積極效應。根據(jù)前文分析,生成式人工智能推動競爭模式躍遷,數(shù)據(jù)競爭從數(shù)據(jù)獲取演變?yōu)閮?nèi)容重構(gòu),極有可能出現(xiàn)隱私再現(xiàn)、版權(quán)侵權(quán)等現(xiàn)象。“包容審慎”理念指導下的司法裁判給予生成式人工智能發(fā)展時間和容錯空間。誠然,實踐中不應采取過度嚴格的干預措施扼殺技術(shù)創(chuàng)新和商業(yè)模式發(fā)展,但也必須嚴格防止生成式人工智能的數(shù)據(jù)使用對他人合法權(quán)益造成嚴重損害。新技術(shù)的發(fā)展不可避免觸碰到在先利益的邊界并造成一定損害。損害必然存在98
時,司法實踐的判斷焦點應當在于行為方提供的救濟措施是否能有效阻止損害造成不可彌補的影響。本案中,生成式人工智能平臺提供的舉報系統(tǒng)和下架服務,能及時阻斷損害擴散,因此符合“均衡性”原則。
比例原則在奧特曼LoRA案的司法審查中逐層遞進。在目的正當性層面,判斷生成式人工智能平臺的行為是否契合推動技術(shù)創(chuàng)新、促進社會進步的目的;在適當性層面,細究平臺獲取數(shù)據(jù)的行為是否有助于精準實現(xiàn)技術(shù)創(chuàng)新的目的;在必要性層面,衡量行為是否會造成不可逆轉(zhuǎn)的損害,以及救濟措施是否能有效阻斷損害擴散;在均衡性層面,既包容技術(shù)試錯空間,又守住權(quán)益保護底線。以上審查邏輯為生成式人工智能的行為劃定了鼓勵創(chuàng)新但不縱容侵權(quán)的司法邊界。
五、結(jié)語:平衡有為政府和有效市場
數(shù)據(jù)作為數(shù)字經(jīng)濟時代的“石油”,圍繞數(shù)據(jù)資源搶奪造就的一系列新型不正當競爭糾紛衍生大量司法難題。生成式人工智能作為數(shù)據(jù)應用的典型代表,運行階段涵蓋數(shù)據(jù)獲取、數(shù)據(jù)訓練和內(nèi)容生成,其數(shù)據(jù)競爭行為的正當與否難以判斷。當前司法實踐以包容審慎的理念為基礎(chǔ),構(gòu)建了與之適配的裁判范式和裁判規(guī)則。但由于缺乏類案指導,我國生成式AI不正當競爭首案——奧特曼LoRA案的一審和二審裁判仍存在理念不明確、范式不清晰、規(guī)則不統(tǒng)一等問題。為給后續(xù)類案提供指導,需要細化包容審慎裁判理念的內(nèi)涵構(gòu)成,明確利益衡量裁判范式的選擇,拓寬“最少且必要”裁判規(guī)則的分析框架,從而準確判斷生成式人工智能涉數(shù)據(jù)競爭行為的正當性。
生成式人工智能的技術(shù)迭代與法律規(guī)制產(chǎn)生的矛盾,本質(zhì)上是平衡市場創(chuàng)新效率與市場秩序的命題,也是有為政府和有效市場的張力體現(xiàn)。理論上,有效市場依賴于競爭機制的正常運行,企業(yè)通過數(shù)據(jù)積累和算法優(yōu)化提升市場競爭力,市場最終形成優(yōu)勝劣汰的動態(tài)格局。但現(xiàn)實中,生成式人工智能企業(yè)可能利用數(shù)據(jù)優(yōu)勢限制競爭對手獲取數(shù)據(jù)資源,從而削弱市場可競爭性。市場機制未必能自動調(diào)整競爭失衡,市場失靈時則需要政府適當介人。過度干預會抑制市場主體的自主創(chuàng)新動力。因此,司法裁判的關(guān)鍵在于法院應依據(jù)市場動態(tài)競爭情況,對數(shù)據(jù)競爭糾紛進行精準干預,既避免生成式人工智能平臺利用數(shù)據(jù)優(yōu)勢形成不公平競爭,也避免過度干預導致技術(shù)創(chuàng)新受阻。唯有以“包容審慎”為理念指導,精準掌握司法干預尺度,方能實現(xiàn)行業(yè)創(chuàng)新活力與市場公平競爭的動態(tài)平衡的同時,推動生成式人工智能技術(shù)在法治框架內(nèi)的可持續(xù)發(fā)展。
參考文獻:
[1]WACHK.,UONGC.D.,EJDYSJ..TheDark SideofGenerativeArtificial Intellgence:aCriticalAnalysisofControversiesand Risks of ChatGPT[J]. Entrepreneurial Business and Economics Review,2O23(2) :8.
[2]FEURRIEGEL S.,HARTMANNJ.,JANIESCH C..Generative ai[J].Business amp; Information Systems Engineering,2024(1):111.
[3]賀俊,龐堯.數(shù)字技術(shù)驅(qū)動的產(chǎn)業(yè)融合發(fā)展范式與面向融合范式的政策體系調(diào)整[J].湖南科技大學學報(社會科學版),2023(4):71.
[4]國家互聯(lián)網(wǎng)信息辦公室,中華人民共和國國家發(fā)展和改革委員會,中華人民共和國教育部,等.生成式人工智能服務管理暫行辦法[EB/OL].(2023-07-10)[2025-04-21].htps://www.gov.cn/zhengce/zhengceku/202307/content_6891752. htm.
[5]陳耿華,陳翰臣.數(shù)據(jù)不正當競爭行為判定的反思與完善[J].重慶郵電大學學報(社會科學版),2024(4):53-54.
[6]李希梁,張欽昱.生成式人工智能的反壟斷規(guī)制[J].電子政務,2024(5).
[7]王健,吳宗澤.生成式人工智能反壟斷論綱[J].法治研究,2024(6):130-147.
[8]雷浩然.生成式人工智能領(lǐng)域的壟斷風險及其治理路徑[J].中國流通經(jīng)濟,2025(4):115-126.
[9]杭州互聯(lián)網(wǎng)法院.用戶生成奧特曼侵權(quán)圖片,AI平臺要擔責?杭州互聯(lián)網(wǎng)法院判決解析來了?。跡B/OL].(2025-02-10)[2025 -03 -25]. htps://mp. weixin.qq. com/s/ZgqsKlCToaQb9QW_JHwi0g.
[10]北京市律師協(xié)會.律師視點丨AI數(shù)據(jù)訓練使用他人作品的合理使用判斷——從中美兩國數(shù)據(jù)訓練著作權(quán)首案判決談起[EB/OL]. (2025 -04-08)[2025-04 -15]. htps://mp.weixin.qq.com/s/1UcchtT9UF5QvuinTB_lpg.
[11]ZECCHINI G.,MOORE AA.,UblM.. The rise of the AI crawler[EB/OL].(2025-03-10)[2024-12-17].https://vercel.com/blog/the-rise-of -the-ai-crawler.
[12]Crawl4AI. Open-Source LLM-Friendly Web Crawler amp; Scraper[EB/OL].(2024-10-14)[2025-04-15].Crawl4A1,https://docs. crawl4ai. com/.
[13]HUANG CJ..The SynergyofAutomated Pipelines with Prompt Enginering and Generative AI in Web Crawling[J/OL].(2024 -12 -29)[2025-04 -04].arxiv.org. htps://arxiv.org/abs/2502.15691.
[14]LIUE.,LUOE.,HANS..SomesiteIUsedTo Crawl:Awareness,AgencyandEficacyinProtecting Content CreatorsFromAI Crawlers[J/OL]. (2024-12-22)[2025 -03-15]. htps://arxiv.org/abs/2411.15091.
[15]ALLYNB..‘The New York Times’takes OpenAI to court.ChatGPT'sfuturecould be on the line[N/OL].(2025-01-14)[2025-03-21].NPR News.htps://www.npr.org/2025/01/14/nx-s1-5258952/new- york-times-openai- mi-crosoft.
[16]張濤.生成式人工智能訓練數(shù)據(jù)集的法律風險與包容審慎規(guī)制[J].比較法研究,2024(4).
[17]BAACK S..A Critical Analysisof the Largest Sourcefor Generative ai Training Data:common Crawl[J/OL].(2024-01-05)[2025-04 -01].ACM Digital Library.htps://dl.acm.org/doi/10.1145/3630106.3659033.
[18]BADRM.Unleashing the PowerofAI:the MicrosoftandOpenAIPartnership[J/OL].(2023-04-18)[2025-03-22].Uni-versityof Washington.htps://digital.lib.washington.edu/researchworks/items/7fea15-dcdb-4b67-8bl3-cd234e782bd8.
[19]瑪麗亞木·艾斯凱爾.合成數(shù)據(jù):生成式人工智能數(shù)據(jù)訓練中隱私保護和數(shù)據(jù)利用并行的新路徑[J/OL].圖書館建設(shè),(2024-12-20)[2025-06-11]. htp://kns.cnki.net/kcms/detail/23.1331. G2.20241220.0845.002.html.
[20]李耕,王梓爍,何相騰,等.從 ChatGPT到多模態(tài)大模型:現(xiàn)狀與未來[J].中國科學基金,2023(5):725.
[21]POPEHLR A..NYT V.OpenAI: The Times’s About-Face[J/OL].(2024-04-10)[2025-03-21].Harvard Law Re-view.https://harvardlawreview.org/blog/2024/O4/nyt-v-openai-the -timess-about -face/.
[22]中國政府網(wǎng).政府工作報告(全文)[R/OL].(2017-03-16)[2025-04-05].htps://w.gov.cn/xinwen/2017-03/16/content_5177940. htm.
[23]劉權(quán).數(shù)字經(jīng)濟視域下包容審慎監(jiān)管的法治邏輯[J].法學研究,2022(4):37-51.
[24]廖凡.論金融科技的包容審慎監(jiān)管[J].中外法學,2019(3):797-816.
[25]貝爾納·克萊芒.自由競爭[M].黃傳根,譯.上海:商務印書館,2001:1.
[26]王雯慧,馬瑞麗.論技術(shù)中立原則在網(wǎng)絡知識產(chǎn)權(quán)侵權(quán)中的抗辯效力[J].華北水利水電大學學報(社會科學版),2018(5) :91.
[27]劉輝,雷崎山.生成式人工智能的數(shù)據(jù)風險及其法律規(guī)制[J].重慶郵電大學學報(社會科學版),2024(4):41-42.
[28]戚聿東,劉?。斯ぶ悄墚a(chǎn)業(yè)的包容審慎監(jiān)管:理論內(nèi)涵與實現(xiàn)路徑[J].蘭州大學學報(社會科學版),2024(4).
[29]盧代富.經(jīng)濟法中的國家干預解讀[J].現(xiàn)代法學,2019(4):118.
[30]劉乃梁.包容審慎原則的競爭要義——以網(wǎng)約車監(jiān)管為例[J].法學評論,2019(5):129.
[31]袁康,鄢浩宇.包容審慎視角下數(shù)據(jù)競爭法律制度的理念調(diào)適與范式革新[J].北京郵電大學學報(社會科學版),2022(3) :40.
100
[32]黃鏟.論我國人工智能領(lǐng)域包容審慎監(jiān)管的法治維度[J].財經(jīng)法學,2025(2):102.
[33]盧代富,張煜琦.從權(quán)益保護到利益衡量:數(shù)據(jù)抓取行為正當性認定的路徑優(yōu)化[J].河南財經(jīng)政法大學學報,2022(6) :66.
[34]任明艷.利益衡量如何在民商事案件中展開?[EB/OL].(2025-03-10)[2025-04-01].https://mp.weixin.qq.com/s/x6hFpOpy9_IGr4QCySqtvA.
[35]陳金釗,左飛.論利益衡量規(guī)則[J].河北法學,2025(5):33.
[36]Gesammelte S..Claus-Wilhelm Canaris[M].Berlin:De Gruyter,2O12:775.
[37]史欣媛.論比例原則在經(jīng)濟法中的適用[J].現(xiàn)代法學,2022(2):36.
[38]史欣媛.屏蔽視頻廣告行為正當性判定的理路反思[J].廈門大學法律評論,2023(1):150.
(責任編輯:蒲應秋)
Legitimacy Determination of Data Competition Behavior Involving Generative Artificial Intelligence: a Review of the AI -Generated Ultraman Image Copyright Infringement Case
SHI Xinyuan',ZHENG Jinglei2 School of Law,Xiamen University,Xiamen,F(xiàn)ujian,China,361Oo5;2.Center for Financial Law, Xiamen University,Xiamen,F(xiàn)ujian,China,361005)
Abstract:Disputesarisingfromdatacompetition behaviorinvolvinggenerativeartificialintellgence(GAI)permeatevarious aspects fdata circulation.Basedonthetechnological processtages,such behaviorcanbe deconstructedinto threespecifictypes: improperdataacquision,datainterference,anddatamisuse.Incomparisontotraditionaldatacompetition,thedata-driven natureofGAIrendersitsriskbenefitstructuremorecomplexanddiverse,exacerbating thechallngeofdeterminingthelegitimacy of the involved data competition behavior.The firstcase in China involving GAI and improper data competition - the“Ultraman LoRAcase”—underscoresaperspectivethatscrutinizestherelatioshipbetweentechnologicalinovationandmarketcompeition throughadynamiccompetitivelens,wichisworthemulating.However,acloseexamiationofthejudicialreasoninginthiscase revealspracticalimpedimentssuchasunclearjudicialconceptual implications,structuralmismatches injudicialparadigms,anda deviationfromtheessnceofcompetitioninthejudgmentrules.Hence,futuredeterminationsof thelegitimacyofdatabehavior involvingGAIshouldupholdtheprincipleof“inclusivenessandprudence,emphasizingarational balancebetweeninovative inclusivityandorder maintenance,downplayingsubjectivemoralevaluation,adhering toa judgmentparadigm basedonbenefits assessment,broadeningthesopeof“mnimalandnecessry”rules,extendingtheirappicationframeworkthroughthepricipleof proportionality,andthusrealizing asystemicreconstructionof thelegitimacyofdatacompetionbehaviorinvolving GAI.
Key words :generative artificial intelligence ;data competition;legitimacy; Ultraman LoRA Case