国产精品偷伦精品视频,欧美厨房性猛交xx乱大交,《隔壁女邻居3》中文,亚洲特级毛片,欧美色图亚洲色,在线免费看污视频,亚洲福利视频一区二区三区,国产91会所洗浴女技师
法治政府建設(shè)

摘 要:訓(xùn)練數(shù)據(jù)對于人工智能大模型的開發(fā)具有不可或缺的重要作用。但是基于我國現(xiàn)行的法律制度和大模型的技術(shù)原理,會存在訓(xùn)練數(shù)據(jù)侵權(quán)風(fēng)險、訓(xùn)練數(shù)據(jù)偏差風(fēng)險和訓(xùn)練數(shù)據(jù)泄露風(fēng)險等三種風(fēng)險類型。人工智能大模型訓(xùn)練數(shù)據(jù)的侵權(quán)風(fēng)險主要包括大模型預(yù)訓(xùn)練時使用作品類數(shù)據(jù)可能會違反《著作權(quán)法》的規(guī)定、使用個人信息數(shù)據(jù)可能會違反《個人信息保護(hù)法》的規(guī)定等兩種情形。人工智能大模型訓(xùn)練數(shù)據(jù)的偏差風(fēng)險主要包括價值性偏差風(fēng)險、時效性偏差風(fēng)險和真實性偏差風(fēng)險等三種情形。人工智能大模型訓(xùn)練數(shù)據(jù)的泄露風(fēng)險主要包括面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險、面向攻擊者的數(shù)據(jù)泄露風(fēng)險等兩種情形。可以通過調(diào)整現(xiàn)行立法來滿足人工智能大模型開發(fā)者的訓(xùn)練數(shù)據(jù)需求,通過元規(guī)制的方式激勵人工智能大模型開發(fā)者防范訓(xùn)練數(shù)據(jù)的偏差風(fēng)險,以及通過加強(qiáng)法定義務(wù)督促人工智能大模型開發(fā)者防范訓(xùn)練數(shù)據(jù)的泄露風(fēng)險。

關(guān)鍵詞:生成式人工智能;大模型;訓(xùn)練數(shù)據(jù);法律規(guī)制

人工智能大模型也被稱為生成式人工智能大模型(Large Generative AI Models, LGAIMs),是指經(jīng)過預(yù)先數(shù)據(jù)訓(xùn)練能夠生成諸如文本、圖像、音頻等內(nèi)容的高級機(jī)器學(xué)習(xí)模型,它不同于主要用來預(yù)測或分析的傳統(tǒng)人工智能模型。人工智能大模型的典型代表是GPT模型(Generative Pre-trained Transformer,生成式預(yù)訓(xùn)練轉(zhuǎn)換模型),GPT模型正是掀起人工智能科技研發(fā)浪潮的現(xiàn)象級智能應(yīng)用產(chǎn)品——ChatGPT的核心模塊。在人工智能大模型的開發(fā)中,超大體量的訓(xùn)練數(shù)據(jù)是不可或缺的基本要素,它的數(shù)量和質(zhì)量都會對大模型的效能產(chǎn)生重要影響,其采集和使用過程中可能存在的風(fēng)險也日益受到關(guān)注。雖然我國已通過頒布《生成式人工智能服務(wù)管理暫行辦法》構(gòu)建了人工智能大模型的初步法律規(guī)制框架,但是它僅能在一定程度上實現(xiàn)對大模型輸出端侵權(quán)問題的法律規(guī)制,而對于輸入端的侵權(quán)問題則鞭長莫及。因此,為了確保我國人工智能大模型合法、高效、平穩(wěn)地發(fā)展,形成“人工智能促進(jìn)型的數(shù)據(jù)制度”,亟需深入分析可能存在哪些訓(xùn)練數(shù)據(jù)風(fēng)險,并進(jìn)而探討有效降低這些風(fēng)險的法律規(guī)制措施,盡可能避免創(chuàng)新技術(shù)發(fā)展過程中的數(shù)據(jù)風(fēng)險轉(zhuǎn)化為實際的危害后果,努力消解這一科技風(fēng)險規(guī)制領(lǐng)域內(nèi)的科林格里奇困境(Collingridge’s Dilemma)。由此,本文依據(jù)韋伯式理想類型的研究方法,將人工智能大模型訓(xùn)練數(shù)據(jù)中可能存在的主要風(fēng)險區(qū)分為數(shù)據(jù)侵權(quán)風(fēng)險、數(shù)據(jù)偏差風(fēng)險和數(shù)據(jù)泄露風(fēng)險三種理想類型,依次研究它們各自生成的制度緣由或技術(shù)原理,并探討有效防范風(fēng)險的法律規(guī)制措施,以期為我國人工智能大模型的發(fā)展提供一點理論貢獻(xiàn)。

一、人工智能大模型訓(xùn)練數(shù)據(jù)的侵權(quán)風(fēng)險及成因

人工智能大模型開發(fā)中的預(yù)訓(xùn)練過程就是訓(xùn)練數(shù)據(jù)的處理過程,這一過程使用的超大規(guī)模訓(xùn)練數(shù)據(jù)中包含了各種不同類型的數(shù)據(jù),承載了多元化的權(quán)益形態(tài)。由于我國為了保護(hù)數(shù)據(jù)主體的權(quán)益已經(jīng)制定了諸多法律規(guī)則,因此當(dāng)開發(fā)者在大模型預(yù)訓(xùn)練過程中處理這些數(shù)據(jù)時,就可能會違反這些法律規(guī)則,產(chǎn)生訓(xùn)練數(shù)據(jù)的侵權(quán)風(fēng)險。依據(jù)人工智能的技術(shù)特征,開發(fā)者進(jìn)行大模型預(yù)訓(xùn)練時的主要侵權(quán)風(fēng)險集中在著作權(quán)侵權(quán)風(fēng)險與個人信息侵權(quán)風(fēng)險兩種情形之上。

(一)訓(xùn)練數(shù)據(jù)的著作權(quán)侵權(quán)風(fēng)險

以文本、圖片、音頻、視頻、代碼等形式表現(xiàn)出來的作品類數(shù)據(jù)是大模型訓(xùn)練數(shù)據(jù)中的重要組成部分,無論開發(fā)者通過何種渠道獲取的訓(xùn)練數(shù)據(jù),都會包含大量此類數(shù)據(jù)。例如,大模型預(yù)訓(xùn)練經(jīng)常使用的英文開源數(shù)據(jù)庫維基百科中包含了超過600萬篇各類文章,中文開源數(shù)據(jù)庫MNBVC中也包含了大量書籍、雜志、論文等,目前數(shù)據(jù)規(guī)模已超過34TB。在開發(fā)者收集和使用這些作品類數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練時,不可避免地會涉及對著作權(quán)人享有權(quán)利的作品進(jìn)行復(fù)制的行為。如開發(fā)者(包括訓(xùn)練數(shù)據(jù)集的制作者)通過網(wǎng)絡(luò)爬蟲技術(shù)從互聯(lián)網(wǎng)上獲取作品類數(shù)據(jù)的過程,其實就是將作品復(fù)制到本地硬盤介質(zhì)中的過程。同理,當(dāng)開發(fā)者將收集的作品類數(shù)據(jù)輸入大模型中進(jìn)行預(yù)訓(xùn)練時,也一樣離不開對作品的復(fù)制行為。《紐約時報》就曾提起訴訟向OpenAI公司索賠數(shù)十億美元,認(rèn)為后者非法復(fù)制使用了數(shù)以百萬計的該報上的文章用于ChatGPT大模型的訓(xùn)練,侵害了其享有的著作權(quán)。近期也有三位美國作者起訴大模型開發(fā)公司Anthropic PBC,指控其復(fù)制使用他們的作品及其他數(shù)十萬本沒有經(jīng)過授權(quán)的書籍訓(xùn)練Claude大模型。可以預(yù)見,隨著人工智能大模型開發(fā)浪潮的洶涌,此類法律糾紛也將會日益頻繁地發(fā)生。

根據(jù)我國《著作權(quán)法》第10條第1款第5項的規(guī)定,著作權(quán)人享有的權(quán)利中也包含了對作品進(jìn)行復(fù)制的權(quán)利。因此,在沒有法定例外情形時,我國大模型的開發(fā)者依法應(yīng)征得著作權(quán)人的許可后才能合法地復(fù)制、使用這些作品進(jìn)行大模型預(yù)訓(xùn)練活動。然而,大模型訓(xùn)練數(shù)據(jù)的體量非常巨大,如GPT系列模型預(yù)訓(xùn)練使用的開源數(shù)據(jù)庫中,BooksCorpus包含了7400萬個句子、Wikipedia包含了42億個詞、The Pile包含了825GB數(shù)據(jù),有學(xué)者曾指出GPT- 3時代的預(yù)訓(xùn)練數(shù)據(jù)就已經(jīng)包含高達(dá)45TB大小的文本數(shù)據(jù)。在這么龐大的訓(xùn)練數(shù)據(jù)中,包含了海量的作品,所涉及的作者會遍布全世界各個地域。如果要求開發(fā)者就其中的每個作品都獲得著作權(quán)人的許可,那么僅此項開發(fā)成本就會極其高昂,幾乎屬于不可能完成的任務(wù),將會給大模型預(yù)訓(xùn)練造成難以逾越的法律障礙。并且,如果硬性要求開發(fā)者必須獲得著作權(quán)人的許可,那么在大模型開發(fā)的科技浪潮中,或許只能迫使開發(fā)者明里或暗里違反這一規(guī)則,最終形成“違法過剩”的尷尬局面。

為了應(yīng)對大模型預(yù)訓(xùn)練活動可能會違反《著作權(quán)法》的問題,現(xiàn)有研究主要提出了三種解決方案:一是將大模型預(yù)訓(xùn)練使用數(shù)據(jù)過程中的作品復(fù)制行為定義為“過程性復(fù)制”,認(rèn)為其不屬于《著作權(quán)法》意義上的復(fù)制行為,從而推導(dǎo)出大模型預(yù)訓(xùn)練并未侵害著作權(quán)人享有的權(quán)利;二是將大模型預(yù)訓(xùn)練中使用作品的行為定義為“非作品性使用”,認(rèn)為其不屬于《著作權(quán)法》調(diào)整的范圍,從而推導(dǎo)出大模型預(yù)訓(xùn)練并未侵害著作權(quán)人享有的權(quán)利;三是認(rèn)為應(yīng)當(dāng)在立法中單獨設(shè)定機(jī)器學(xué)習(xí)合理使用條款,明確大模型預(yù)訓(xùn)練中對作品使用的合法性。

在這三種應(yīng)對方案中,前兩種方案具有相似性,都是通過學(xué)理解釋方法將《著作權(quán)法》中的不確定法律概念(“復(fù)制”和“使用作品”)進(jìn)行限縮解釋,進(jìn)而將大模型預(yù)訓(xùn)練復(fù)制、使用作品的行為排除在《著作權(quán)法》的適用范圍之外。這兩種方案雖然都具有理論上的說服力,但畢竟在我國成文法中并未明確承認(rèn)諸如“過程性復(fù)制”“非作品性使用”之類的學(xué)理概念,因而大模型預(yù)訓(xùn)練使用作品的行為始終會面臨基于《著作權(quán)法》條文的文義解釋的質(zhì)疑。第三種方案承認(rèn)了目前《著作權(quán)法》關(guān)于合理使用的規(guī)定很難為大模型預(yù)訓(xùn)練使用作品的行為提供直接合法性依據(jù)。因為在該法第24條設(shè)定的13種著作權(quán)合理使用情形中,與大模型開發(fā)最可能相關(guān)的是第24條第1款第6項規(guī)定的“為科學(xué)研究少量復(fù)制已發(fā)表作品,供科研人員使用”的情形。雖然大模型預(yù)訓(xùn)練確實屬于科學(xué)研究活動,但是《著作權(quán)法》中的這一規(guī)定針對的是公益性質(zhì)的科學(xué)研究活動,并不適用于以盈利為目的的商業(yè)化科研活動。目前我國大模型的開發(fā)者主要是商業(yè)性的大型互聯(lián)網(wǎng)公司(如百度、阿里、騰訊、字節(jié)跳動等),這些商業(yè)公司投資此類科研活動的目的在于謀取更多的商業(yè)利益。雖然對商業(yè)利益的追求在大模型的發(fā)展過程中是不可避免的,甚至商業(yè)盈利是推動大模型創(chuàng)新技術(shù)發(fā)展的最重要動力之一。但是,這也就同時意味著不能適用《著作權(quán)法》中的這一合理使用制度來證成大模型預(yù)訓(xùn)練使用作品行為的合法性。由此,第三種方案提出可以通過修改《著作權(quán)法實施條例》或在人工智能立法中設(shè)立專門規(guī)定應(yīng)對這一合法性問題。相較而言,第三種方案更具現(xiàn)實可行性,當(dāng)然這種方案也從側(cè)面體現(xiàn)出,根據(jù)現(xiàn)行《著作權(quán)法》的規(guī)定,大模型預(yù)訓(xùn)練使用作品的行為確實存在侵害著作權(quán)的可能性。

由此可見,無論在理論上如何對大模型預(yù)訓(xùn)練使用作品的行為進(jìn)行合法性證成,都難以否定在現(xiàn)行《著作權(quán)法》制度框架下,大模型使用作品類數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練的活動存在著著作權(quán)侵權(quán)風(fēng)險。

(二)訓(xùn)練數(shù)據(jù)的個人信息侵權(quán)風(fēng)險

大模型預(yù)訓(xùn)練數(shù)據(jù)中另一重要組成部分是包含個人信息的數(shù)據(jù)。由于開發(fā)者使用個人信息數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練的行為屬于典型的個人信息處理活動,因此應(yīng)當(dāng)適用我國《個人信息保護(hù)法》的規(guī)定,且可能違反其中諸多法律規(guī)則的設(shè)定。

具體而言,依據(jù)我國《個人信息保護(hù)法》第4條的規(guī)定,“個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關(guān)的各種信息”。大模型預(yù)訓(xùn)練所處理的個人信息數(shù)據(jù)就是以電子方式記錄的與已識別或者可識別的自然人有關(guān)的各種信息。開發(fā)者在使用這些個人信息數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練時,可能會產(chǎn)生以下個人信息侵權(quán)風(fēng)險:

1.《個人信息保護(hù)法》第13條第1款第1項要求除特殊情形之外,處理個人信息的活動原則上都應(yīng)當(dāng)經(jīng)過信息主體同意后才能進(jìn)行。這意味著作為信息處理者的大模型開發(fā)者在使用個人信息數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練時,依法應(yīng)當(dāng)事先獲得信息主體的同意,否則就不能處理個人信息數(shù)據(jù)。然而,由于大模型所使用的訓(xùn)練數(shù)據(jù)體量巨大,其中包含的個人信息數(shù)據(jù)也同樣體量巨大。如果要求開發(fā)者依據(jù)法律要求獲得每位信息主體的同意后,才能將個人信息數(shù)據(jù)用于大模型預(yù)訓(xùn)練,那么其成本將遠(yuǎn)超開發(fā)者所能承受的范圍,實際上也是一項不可能完成的任務(wù)。這會導(dǎo)致開發(fā)者要么放棄大模型的研發(fā),要么在違法狀態(tài)中強(qiáng)行進(jìn)行大模型預(yù)訓(xùn)練,無論如何都會對大模型創(chuàng)新技術(shù)的發(fā)展產(chǎn)生阻礙。

2.《個人信息保護(hù)法》第13條第1款第6項規(guī)定,個人信息處理者如果“在合理的范圍內(nèi)處理個人自行公開或者其他已經(jīng)合法公開的個人信息”,則無需取得信息主體的同意。這意味著,大模型開發(fā)者如果在“合理范圍”內(nèi)使用個人自行公開的個人信息(如高校教師自己公布在官方網(wǎng)站上的聯(lián)系方式、學(xué)術(shù)簡歷等),或者通過其他合法途徑公開的個人信息(如國家機(jī)關(guān)依法公開的個人信息)進(jìn)行大模型預(yù)訓(xùn)練,就無需經(jīng)過信息主體的同意,屬于合法的個人信息處理行為(下文簡稱這些信息為已公開個人信息)。然而,在大模型的技術(shù)語境中,什么是處理已公開個人信息的“合理范圍”卻并不容易判斷。目前個人信息保護(hù)理論上主要存在“目的限定原則”與“場景理論”兩種判斷“合理范圍”的標(biāo)準(zhǔn),前者是指個人信息處理活動的“合理范圍”應(yīng)當(dāng)限定在信息主體公開個人信息的初始目的之上,后者認(rèn)為應(yīng)當(dāng)依據(jù)具體場景的差異來確定已公開個人信息處理的“合理范圍”。然而,這兩種判斷標(biāo)準(zhǔn)在大模型預(yù)訓(xùn)練中都難以順利適用:

其一,人工智能大模型的主要技術(shù)原理是在預(yù)訓(xùn)練階段挖掘訓(xùn)練數(shù)據(jù)中包含的詞元(token)間概率分布規(guī)律,并以參數(shù)形式保存于大模型之中,然后依據(jù)這種詞元間概率分布規(guī)律推導(dǎo)出用戶需求的信息。例如ChatGPT就是由OpenAI公司在預(yù)訓(xùn)練階段通過分析海量訓(xùn)練數(shù)據(jù)中自然語言的詞元間概率分布規(guī)律,建構(gòu)的包含超大規(guī)模參數(shù)的大模型應(yīng)用。當(dāng)ChatGPT的用戶以自然語言形式輸入提示詞(promote)時,大模型就根據(jù)預(yù)訓(xùn)練階段掌握的詞元間概率分布規(guī)律,以用戶輸入的提示詞為基礎(chǔ),計算后續(xù)詞出現(xiàn)的概率分布,然后選擇概率最高的詞輸出。接著,輸出的詞與用戶的提示詞一起又被大模型作為計算后續(xù)詞概率分布的基礎(chǔ)。這種自回歸(autoregressive)過程將會反復(fù)多次,最終通過“預(yù)測下一個詞”的方式形成用戶可以理解的輸出信息,這一技術(shù)原理也被學(xué)者稱為“基于概率的文本生成方式”。在這一技術(shù)過程中,即使對于開發(fā)者而言,大模型預(yù)訓(xùn)練時究竟如何處理個人信息數(shù)據(jù)以及從中發(fā)現(xiàn)了何種詞元間概率分布規(guī)律都是不可知的,已經(jīng)形成了完全的技術(shù)黑箱,以至于包括埃隆·馬斯克(Elon Musk)在內(nèi)的1000多名專業(yè)人士曾聯(lián)名簽署公開信呼吁暫停強(qiáng)于GPT-4的大模型開發(fā)至少六個月。這意味著,開發(fā)者在將個人信息數(shù)據(jù)用于大模型預(yù)訓(xùn)練時,從技術(shù)角度而言就無法做到將其限定在特定目的之上,也更不可能限定在信息主體公開個人信息時的初始目的之上。

其二,大模型中包含了動輒數(shù)以億計的參數(shù),超大規(guī)模的參數(shù)量使大模型具備了涌現(xiàn)(emergent)的能力。這種能力是指一個系統(tǒng)從量變積累達(dá)到質(zhì)變的飛躍過程,它是模型在其規(guī)模(如參數(shù)量、計算量、訓(xùn)練數(shù)據(jù)量等的規(guī)模)擴(kuò)展超過一定閾值后所具備的能力,這種能力是小模型所不具備的。也即,當(dāng)模型的規(guī)模擴(kuò)大到一定程度后,大模型可以在沒有經(jīng)過事先具有針對性的數(shù)據(jù)訓(xùn)練的情況下,根據(jù)用戶輸入的提示詞完成有效信息的輸出。大模型的這種涌現(xiàn)能力意味著訓(xùn)練數(shù)據(jù)中的個人信息數(shù)據(jù)會在超出開發(fā)時預(yù)設(shè)的場景中被處理,即使開發(fā)者也無法控制或者獲知個人信息數(shù)據(jù)可能會被處理的所有場景類型,也就更加難以實現(xiàn)依據(jù)場景的差異確定已公開個人信息數(shù)據(jù)處理的“合理范圍”。可見,在大模型的技術(shù)語境中,無論是“目的限定原則”抑或“場景理論”都難以判斷預(yù)訓(xùn)練中已公開個人信息處理的“合理范圍”,這也導(dǎo)致大模型預(yù)訓(xùn)練始終存在著超越“合理范圍”處理已公開個人信息的侵權(quán)風(fēng)險。

由此可見,在我國《個人信息保護(hù)法》目前設(shè)定的制度框架下,開發(fā)者使用個人信息數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練活動時,可能會對信息主體的個人信息權(quán)益產(chǎn)生侵害,存在個人信息保護(hù)方面的侵權(quán)風(fēng)險。

二、人工智能大模型訓(xùn)練數(shù)據(jù)的偏差風(fēng)險及成因

人工智能大模型訓(xùn)練數(shù)據(jù)存在的第二種風(fēng)險是數(shù)據(jù)偏差風(fēng)險,它是指因大模型訓(xùn)練數(shù)據(jù)本身的質(zhì)量缺陷而導(dǎo)致輸出負(fù)面信息內(nèi)容的問題。由于大模型生成信息內(nèi)容的基礎(chǔ)在于訓(xùn)練數(shù)據(jù),因此訓(xùn)練數(shù)據(jù)本身的質(zhì)量高低直接決定了輸出信息內(nèi)容質(zhì)量的高低,訓(xùn)練數(shù)據(jù)的偏差會帶來輸出信息內(nèi)容的偏差。我們可以將人工智能大模型訓(xùn)練數(shù)據(jù)的偏差風(fēng)險區(qū)分為價值性偏差風(fēng)險、時效性偏差風(fēng)險和真實性偏差風(fēng)險三種類型,它們都源于大模型內(nèi)生的技術(shù)特征。

(一)訓(xùn)練數(shù)據(jù)的價值性偏差風(fēng)險

訓(xùn)練數(shù)據(jù)的價值性偏差風(fēng)險是指由于大模型預(yù)訓(xùn)練所使用的訓(xùn)練數(shù)據(jù)中包含了歧視、暴力、情色等具有價值偏差的內(nèi)容,導(dǎo)致大模型學(xué)習(xí)后輸出的信息中也包含了具有類似價值偏差的內(nèi)容。在互聯(lián)網(wǎng)時代,大模型如果長期輸出這種包含價值偏差的信息內(nèi)容,可能導(dǎo)致網(wǎng)絡(luò)空間多元信息糾偏機(jī)制的破壞、公共價值形塑的困難、錯誤觀點的病毒式傳播、意識形態(tài)傳送機(jī)的形成等危害后果,乃至波及公共政策的有效作出、執(zhí)行與反饋,因此需要重點加以防范。

訓(xùn)練數(shù)據(jù)的價值性偏差風(fēng)險主要源于大模型預(yù)訓(xùn)練使用了超大規(guī)模的無人工標(biāo)注數(shù)據(jù)。傳統(tǒng)上的人工智能模型訓(xùn)練大都使用人工標(biāo)注數(shù)據(jù)進(jìn)行,因為人工標(biāo)注數(shù)據(jù)的質(zhì)量相對較高、訓(xùn)練技術(shù)難度較低。但人工標(biāo)注數(shù)據(jù)的采集難度很大、數(shù)據(jù)標(biāo)注成本很高,因此訓(xùn)練數(shù)據(jù)的規(guī)模也十分有限。而GPT類人工智能大模型在開發(fā)時克服了技術(shù)上的障礙,實現(xiàn)了使用無人工標(biāo)注數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練的模型能力,由此這一預(yù)訓(xùn)練階段也被稱為模型的無監(jiān)督學(xué)習(xí)階段。無人工標(biāo)注數(shù)據(jù)雖然較之人工標(biāo)注數(shù)據(jù)而言質(zhì)量較低,但收集難度小、訓(xùn)練成本較低,因而在互聯(lián)網(wǎng)時代訓(xùn)練數(shù)據(jù)的規(guī)模可以近乎不受限制地擴(kuò)大,便利形成超大規(guī)模訓(xùn)練數(shù)據(jù)集。正是由于能夠使用超大規(guī)模的無人工標(biāo)注數(shù)據(jù)進(jìn)行機(jī)器學(xué)習(xí),大模型在預(yù)訓(xùn)練時才能更有效地挖掘蘊含在訓(xùn)練數(shù)據(jù)中的詞元間概率分布規(guī)律,實現(xiàn)高度類人化、智能化的信息輸出。

然而,使用超大規(guī)模的無人工標(biāo)注數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練也帶來了顯著的負(fù)面效應(yīng)。無人工標(biāo)注數(shù)據(jù)中往往包含了大量涉及歧視、暴力、情色等價值偏差的內(nèi)容。當(dāng)大模型基于這些數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練時,它所挖掘出的詞元間概率分布規(guī)律中也包含了類似的偏差內(nèi)容,這就導(dǎo)致輸出的信息中同樣會包含大量存在價值偏差的內(nèi)容,出現(xiàn)“偏見進(jìn)、偏見出”(Bias in, Bias out)的現(xiàn)象。當(dāng)然,大模型開發(fā)者也意識到了這一問題,因此會從技術(shù)上防止大模型輸出包含價值偏差的信息內(nèi)容。但是現(xiàn)有技術(shù)上的調(diào)整并不能完全杜絕此類風(fēng)險的出現(xiàn),這是因為:

1.開發(fā)者可以使用微調(diào)(Fine-Tuning)技術(shù)來減少大模型輸出價值偏差的信息內(nèi)容,但是并不能完全杜絕大模型輸出具有價值偏差的信息內(nèi)容。大模型的微調(diào)是指開發(fā)者經(jīng)過無監(jiān)督學(xué)習(xí)階段對大模型進(jìn)行預(yù)訓(xùn)練、使其掌握訓(xùn)練數(shù)據(jù)中的詞元間概率分布規(guī)律之后,再使用經(jīng)過人工標(biāo)注且包含與人類價值對齊(Value Alignment)的特定領(lǐng)域訓(xùn)練數(shù)據(jù)集對大模型進(jìn)行訓(xùn)練,也即進(jìn)行模型的監(jiān)督學(xué)習(xí)階段。在監(jiān)督學(xué)習(xí)階段,由于使用的是包含與人類價值對齊的人工標(biāo)注數(shù)據(jù),因此可以使大模型經(jīng)過訓(xùn)練后也掌握與人類價值對齊的詞元間概率分布規(guī)律,從而在一定程度上減少大模型輸出具有價值偏差的信息內(nèi)容。

但是,如前所述,大模型的機(jī)器學(xué)習(xí)過程呈現(xiàn)出技術(shù)黑箱的特征,開發(fā)者自身并不確切掌握大模型究竟從訓(xùn)練數(shù)據(jù)中發(fā)現(xiàn)了何種詞元間概率分布規(guī)律。這意味著開發(fā)者也不知道在海量的大模型參數(shù)中,究竟哪些會導(dǎo)致模型輸出包含價值偏差的信息內(nèi)容,也就很難對大模型可能輸出的價值偏差信息進(jìn)行全面的微調(diào)矯正。于是,開發(fā)者只能要么運用人工標(biāo)注數(shù)據(jù)對大模型進(jìn)行不具針對性的寬口徑微調(diào),要么在發(fā)現(xiàn)大模型輸出了價值偏差信息內(nèi)容后再進(jìn)行具有針對性的微調(diào)。然而,人工標(biāo)注數(shù)據(jù)的體量畢竟有限,遠(yuǎn)不及預(yù)訓(xùn)練階段無人工標(biāo)注數(shù)據(jù)的體量。由此,寬口徑微調(diào)并不能完全消除價值偏差信息內(nèi)容的輸出,事后的微調(diào)也只能被動地防范后續(xù)類似價值偏差信息內(nèi)容的輸出,漏網(wǎng)之魚不可避免,微調(diào)技術(shù)也就難以完全防止大模型輸出具有價值偏差的信息內(nèi)容。

2.開發(fā)者可以運用基于人類反饋的強(qiáng)化學(xué)習(xí)技術(shù)(Reinforcement Learning with Human Feedback)使人工智能大模型輸出的信息與人類價值對齊,但是也不能完全杜絕大模型輸出具有價值偏差的信息內(nèi)容。基于人類反饋的強(qiáng)化學(xué)習(xí)技術(shù)是指為了加速人工智能大模型的收斂速度、優(yōu)化收斂方向,開發(fā)者引入人工評價作為大模型輸出信息內(nèi)容的額外獎勵。也即,開發(fā)者通過雇傭工作人員與大模型進(jìn)行對話,對大模型就相同問題的不同回復(fù)進(jìn)行排名,并用這些排名數(shù)據(jù)訓(xùn)練一個獎勵模型,再用這個獎勵模型對大模型之后的回復(fù)進(jìn)行排名,使大模型在今后遇到類似情景時輸出排名更好的回復(fù),促進(jìn)大模型的迭代進(jìn)化,輸出與人類價值對齊的信息內(nèi)容,這一技術(shù)的運用也被稱為大模型的強(qiáng)化學(xué)習(xí)階段。

雖然基于人類反饋的強(qiáng)化學(xué)習(xí)技術(shù)較之微調(diào)技術(shù)而言,更能具有針對性地提高大模型輸出的信息內(nèi)容與人類價值對齊,但是它的實現(xiàn)需要雇用大量的工作人員與大模型進(jìn)行對話、打分、反饋,所需支出的人工成本非常高昂。并且,囿于人類自然稟賦的限制,由人工進(jìn)行對話樣本的編寫選擇、打分排名,必然會存在效率不高的問題,導(dǎo)致這一階段可以優(yōu)化的模型參數(shù)范圍遠(yuǎn)不能覆蓋大模型在預(yù)訓(xùn)練的無監(jiān)督學(xué)習(xí)階段形成的參數(shù)范圍。因此,基于人類反饋的強(qiáng)化學(xué)習(xí)技術(shù)也只能減少大模型輸出價值偏差的信息內(nèi)容,同樣不能完全防止大模型輸出價值偏差的信息內(nèi)容。

3.大模型的技術(shù)原理決定了開發(fā)者不能通過直接刪除的方式及時防止大模型輸出價值偏差的信息內(nèi)容。大模型儲存信息數(shù)據(jù)的技術(shù)原理與傳統(tǒng)上硬盤介質(zhì)儲存信息數(shù)據(jù)的技術(shù)原理截然不同:大模型本身并不儲存預(yù)訓(xùn)練時使用的海量訓(xùn)練數(shù)據(jù),而只是以模型參數(shù)的形式儲存預(yù)訓(xùn)練階段發(fā)現(xiàn)的詞元間概率分布規(guī)律。然后根據(jù)這種詞元間的概率分布規(guī)律,基于用戶輸入的提示詞以“預(yù)測下一個詞”的方式輸出概率最高的后續(xù)信息內(nèi)容。因此,即使開發(fā)者發(fā)現(xiàn)大模型輸出了包含價值偏差的信息內(nèi)容,也不能像傳統(tǒng)上操作硬盤介質(zhì)中的數(shù)據(jù)一樣,通過簡單的直接刪除操作來消除這些價值偏差的信息內(nèi)容,而是需要通過使用新的訓(xùn)練數(shù)據(jù)對模型進(jìn)行再次訓(xùn)練,調(diào)整相應(yīng)的模型參數(shù)之后才能予以矯正。

并且,目前大模型的訓(xùn)練成本非常高,不是隨時隨地可以進(jìn)行的簡單操作。例如在斯坦福大學(xué)發(fā)布的《2024年人工智能指數(shù)報告》(Artificial Intelligence Index Report 2024)中顯示,人工智能大模型的訓(xùn)練成本在持續(xù)攀升,OpenAI的GPT-4的訓(xùn)練成本已經(jīng)在7800萬美元左右,而谷歌的Gemini Ultra的訓(xùn)練成本甚至高達(dá)1.91億美元。因此,即使開發(fā)者發(fā)現(xiàn)大模型輸出了具有價值偏差的信息內(nèi)容,也有意愿進(jìn)行積極矯正,但受限于高昂的訓(xùn)練成本,這種矯正活動并不能隨時隨地進(jìn)行,總會存在相應(yīng)時間差。這也就意味著在這一必然存在的時間差內(nèi),事實上是無法有效防止大模型繼續(xù)輸出具有價值偏差的信息內(nèi)容的。

(二)訓(xùn)練數(shù)據(jù)的時效性偏差風(fēng)險

訓(xùn)練數(shù)據(jù)的時效性偏差風(fēng)險是指由于大模型使用的訓(xùn)練數(shù)據(jù)具有時效上的滯后性,難以即時融合最新的數(shù)據(jù),由此,其在預(yù)訓(xùn)練階段所挖掘出的詞元間概率分布規(guī)律也就不能反映即時的信息狀態(tài),從而導(dǎo)致大模型輸出的信息產(chǎn)生了相應(yīng)的時效滯后性。

訓(xùn)練數(shù)據(jù)的時效性偏差風(fēng)險主要源于大模型所采用的預(yù)訓(xùn)練技術(shù)方案。所謂預(yù)訓(xùn)練技術(shù)是指大模型在完成特定任務(wù)之前,由開發(fā)者運用算力和數(shù)據(jù)對模型進(jìn)行預(yù)先訓(xùn)練,使模型分析掌握訓(xùn)練數(shù)據(jù)中包含的詞元間概率分布規(guī)律,然后再根據(jù)用戶的指令,計算輸出相應(yīng)的信息內(nèi)容。正如前文曾提及的,在這一技術(shù)過程中,大模型對于訓(xùn)練數(shù)據(jù)并非采用傳統(tǒng)上硬盤介質(zhì)的存儲方式,而是將通過數(shù)據(jù)分析發(fā)現(xiàn)的詞元間概率分布規(guī)律保存在模型的參數(shù)中,作為之后輸出信息的技術(shù)管道。

這種技術(shù)特征從三個方面決定了訓(xùn)練數(shù)據(jù)時效性偏差的存在:一是由于大模型并不儲存訓(xùn)練數(shù)據(jù)本身,因此在大模型投入實際使用之后,開發(fā)者即使能夠收集到最新的訓(xùn)練數(shù)據(jù),也不能通過簡單地復(fù)制拷貝將新的數(shù)據(jù)及時加入大模型中,而是需要等到啟動下一次大模型迭代訓(xùn)練之后,才能使大模型吸收最新的數(shù)據(jù)信息。這段時間差也就導(dǎo)致大模型預(yù)訓(xùn)練使用的數(shù)據(jù)總會與最新數(shù)據(jù)之間存在時效上的差異,輸出的信息也就會存在滯后性。

二是由于大模型訓(xùn)練需要耗費巨大的算力資源,訓(xùn)練成本非常高,即使是資金雄厚的開發(fā)者也難以做到隨時隨地進(jìn)行大模型迭代訓(xùn)練。因此,大模型本身不能像搜索引擎一樣即時檢索最新的信息數(shù)據(jù),這就致使大模型的訓(xùn)練數(shù)據(jù)總會存在與最新數(shù)據(jù)之間的時間空白。例如當(dāng)ChatGPT剛推出時,它所基于的GPT-3.5的預(yù)訓(xùn)練數(shù)據(jù)只截至2021年12月。即使是2023年11月出現(xiàn)的GPT-4 Turbo,它的訓(xùn)練數(shù)據(jù)也只截至2023年4月,中間始終存在一定時間段內(nèi)的數(shù)據(jù)空白,并不能及時跟進(jìn)最新的數(shù)據(jù)。

三是雖然目前開發(fā)者可以通過聯(lián)網(wǎng)的方式解決用戶獲取最新數(shù)據(jù)的問題(如GPT-4 Turbo就提供了聯(lián)網(wǎng)檢索功能),但是這種方式并非迭代升級大模型本身,而只是用搜索引擎檢索最新網(wǎng)絡(luò)信息的方式來彌補(bǔ)大模型訓(xùn)練數(shù)據(jù)的時效滯后性,并未從根本上解決訓(xùn)練數(shù)據(jù)時效性偏差的問題。

面對這一問題,目前人工智能領(lǐng)域中最新的技術(shù)進(jìn)展是運用檢索增強(qiáng)生成技術(shù)(Retrieval-Augmented Generation, RAG)來緩解訓(xùn)練數(shù)據(jù)的時效滯后性。檢索增強(qiáng)生成技術(shù)(RAG)是指給大模型加上一個外掛知識庫,外掛知識庫中的數(shù)據(jù)可以及時更新,大模型系統(tǒng)運行時會先在知識庫中進(jìn)行檢索,然后再根據(jù)檢索結(jié)果進(jìn)行內(nèi)容生成。由于外掛知識庫中的檢索結(jié)果能夠確保時效性,據(jù)此進(jìn)行的大模型信息生成相應(yīng)地也能夠較好地確保其時效性。檢索增強(qiáng)生成技術(shù)的使用在很大程度上緩解了大模型訓(xùn)練數(shù)據(jù)的時效滯后性,不過畢竟它也并非是通過迭代升級大模型本身來解決這一問題的,因此對于那些沒有使用檢索增強(qiáng)生成技術(shù)的大模型而言,訓(xùn)練數(shù)據(jù)的時效性偏差風(fēng)險依然存在。

(三)訓(xùn)練數(shù)據(jù)的真實性偏差風(fēng)險

訓(xùn)練數(shù)據(jù)的真實性偏差風(fēng)險是指由于大模型是根據(jù)預(yù)訓(xùn)練過程中掌握的詞元間概率分布規(guī)律來計算推導(dǎo)輸出信息,這就導(dǎo)致大模型輸出的信息會出現(xiàn)雖然符合模型預(yù)訓(xùn)練時已掌握的詞元間概率分布規(guī)律,但卻與真實情況不相符合的現(xiàn)象,這也就是大模型的幻覺(hallucination)問題。

訓(xùn)練數(shù)據(jù)的真實性偏差風(fēng)險同樣源于大模型的預(yù)訓(xùn)練技術(shù)方案。如前文所述,大模型是通過預(yù)訓(xùn)練掌握詞元間概率分布規(guī)律,然后依據(jù)這些詞元間的概率分布規(guī)律并基于用戶輸入的提示詞推算出概率最高的后續(xù)信息內(nèi)容予以輸出。這種技術(shù)方案意味著大模型輸出的只是最符合其在預(yù)訓(xùn)練過程中掌握的詞元間概率分布規(guī)律的信息內(nèi)容,而不是最具真實性的信息內(nèi)容。于是,就會出現(xiàn)大模型輸出的信息內(nèi)容雖然符合其在預(yù)訓(xùn)練階段掌握的詞元間概率分布規(guī)律,但卻并不符合真實情形的幻覺現(xiàn)象,這也正是大模型為何會“一本正經(jīng)地胡說八道”的技術(shù)根源。

大模型存在的幻覺現(xiàn)象可以區(qū)分為事實性幻覺(Factuality Hallucination)和忠實性幻覺(Faithfulness Hallucination)兩種類型。前者是指大模型生成的信息內(nèi)容與客觀事實不一致的情形,后者則是指大模型生成的信息內(nèi)容與用戶輸入的指令或其他文本信息不一致,出現(xiàn)了錯誤或邏輯上的矛盾。例如在一項著名的研究中,研究人員向大模型輸入問題“誰是第一個在月球上行走的人?”大模型輸出的答案是“Charles Linbergh”,但客觀事實卻應(yīng)當(dāng)是“Neil Armstrong”,這就屬于事實性幻覺。同一項研究中,研究人員要求大模型對輸入的一篇新聞文稿進(jìn)行內(nèi)容總結(jié)并形成摘要,結(jié)果大模型生成的內(nèi)容摘要將文稿中新聞事件的發(fā)生時間由“2023年10月”錯誤地生成為“2006年10月”,這就屬于忠實性幻覺。

大模型存在的這些幻覺現(xiàn)象會造成諸多風(fēng)險,主要包括:一是由于大模型具備了通過自然語言接口與用戶進(jìn)行交流的能力,用戶在大模型高科技樣態(tài)的感染之下會產(chǎn)生高度的信賴感。這種對技術(shù)的高度信賴感會使用戶難以對大模型的幻覺現(xiàn)象保持足夠警惕,從而致使大模型輸出的錯誤信息內(nèi)容更容易得到用戶的接受,由此也就會導(dǎo)致錯誤信息更容易得到廣泛傳播而難以及時修正。

二是大模型幻覺現(xiàn)象的存在會導(dǎo)致其在垂直領(lǐng)域中的應(yīng)用風(fēng)險。例如在醫(yī)學(xué)領(lǐng)域中應(yīng)用大模型原本可以為醫(yī)生的診斷提供助力,使醫(yī)生迅速掌握病患的病情并作出診療判斷。但是幻覺現(xiàn)象卻會導(dǎo)致大模型輸出錯誤的病因信息,誤導(dǎo)醫(yī)生對病情的判斷,反而加重了醫(yī)療風(fēng)險的發(fā)生。類似的風(fēng)險還可能發(fā)生在法律領(lǐng)域中。大模型在法律領(lǐng)域內(nèi)的運用能夠節(jié)省法官大量的查詢法條與案例的時間、精力,如英國上訴法院比爾斯大法官(Lord Justice Birss)承認(rèn)其曾使用ChatGPT整理特定領(lǐng)域的法律條文并用于撰寫法律文書,認(rèn)為它“非常好用”。哥倫比亞法院的一位法官也曾運用人工智能大模型生成案件判決書。但是,大模型幻覺現(xiàn)象的存在卻可能會導(dǎo)致大模型輸出錯誤甚至根本不存在的法條或判例。例如,美國紐約州兩位律師在提交給法院的法律文書中引用了通過ChatGPT搜集的六個案例,然而卻被法院發(fā)現(xiàn)都是編造的。

目前開發(fā)者也可以通過應(yīng)用檢索增強(qiáng)生成技術(shù)(RAG)來減少大模型的幻覺現(xiàn)象。即開發(fā)者可以給大模型加上一個外掛知識庫,并確保這個知識庫中的信息數(shù)據(jù)的真實性。然后大模型運行時將會先行檢索外掛知識庫中具有真實性的信息數(shù)據(jù),再依據(jù)檢索結(jié)果進(jìn)行內(nèi)容的生成。該技術(shù)確實能大幅度緩解大模型的幻覺問題,但是斯坦福大學(xué)的一項最新研究表明,其依舊不能完全消除大模型的幻覺現(xiàn)象,由此大模型訓(xùn)練數(shù)據(jù)的真實性偏差風(fēng)險始終存在。

由此可見,基于人工智能大模型的基本技術(shù)原理,其運用超大體量訓(xùn)練數(shù)據(jù)進(jìn)行模型的預(yù)訓(xùn)練,會導(dǎo)致模型輸出的信息內(nèi)容出現(xiàn)價值性偏差、時效性偏差與真實性偏差等三種主要的風(fēng)險,這些風(fēng)險將會直接影響到大模型輸出信息的質(zhì)量,需要通過法律規(guī)制措施予以認(rèn)真對待。

三、人工智能大模型訓(xùn)練數(shù)據(jù)的泄露風(fēng)險及成因

人工智能大模型訓(xùn)練數(shù)據(jù)存在的第三種風(fēng)險是數(shù)據(jù)泄露風(fēng)險,它是指因大模型技術(shù)或運營模式上的特點,導(dǎo)致訓(xùn)練數(shù)據(jù)被不確定主體獲取的風(fēng)險。訓(xùn)練數(shù)據(jù)泄露風(fēng)險是大模型可能引發(fā)的最嚴(yán)重的數(shù)據(jù)安全問題之一。我們根據(jù)數(shù)據(jù)泄露面向的對象不同,可以將其區(qū)分為面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險和面向攻擊者的數(shù)據(jù)泄露風(fēng)險兩種基本類型,這兩種基本類型的訓(xùn)練數(shù)據(jù)泄露風(fēng)險產(chǎn)生的技術(shù)原理有所不同。

(一)面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險

面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險是指由于人工智能大模型獨特的運營模式,用戶在使用大模型服務(wù)時輸入的數(shù)據(jù)信息會被開發(fā)者(也含大模型服務(wù)提供者,下同)所獲取,而這種獲取違背了用戶的本意,可能會對其權(quán)益造成損害。

這種類型的數(shù)據(jù)泄露風(fēng)險主要源于大模型開發(fā)者普遍采用了“機(jī)器學(xué)習(xí)即服務(wù)”(Machine Learning as a Service, MLaaS)的運營模式。MLaaS運營模式是指由開發(fā)者為用戶提供在線的大模型云計算服務(wù),用戶因此無需在本地部署運行大模型的基礎(chǔ)設(shè)施,通過接入網(wǎng)絡(luò)就可以在線使用大模型完成特定任務(wù)。目前流行的人工智能大模型——如谷歌公司的Gemini、OpenAI公司的ChatGPT、百度的文心大模型——都通過MLaaS運營模式為用戶提供服務(wù)。這種運營模式極大地降低了用戶使用大模型的成本,有助于大模型應(yīng)用范圍的迅速拓展。

然而,MLaaS運營模式在便利用戶通過云計算服務(wù)使用大模型的同時,也導(dǎo)致用戶在使用時輸入的信息數(shù)據(jù)以及與大模型應(yīng)用交互時產(chǎn)生的信息數(shù)據(jù)都會進(jìn)入開發(fā)者的云存儲器中,被開發(fā)者所掌控。這意味著,如果用戶輸入的信息數(shù)據(jù)包含了商業(yè)秘密或者個人隱私,那么這些數(shù)據(jù)就會泄露給開發(fā)者。由于用戶通常都是在本地電腦客戶端上使用大模型的云服務(wù),且大模型技術(shù)知識儲備參差不齊,并不一定了解自身在用戶界面輸入的信息數(shù)據(jù)會被上傳到云存儲器中,因此存在無意間輸入各類敏感信息數(shù)據(jù)的可能性。例如數(shù)據(jù)安全公司賽博天堂(Cyber Haven)的研究報告顯示,自從ChatGPT問世以來,它所服務(wù)的公司客戶中約4.7%的員工曾將敏感數(shù)據(jù)上傳至ChatGPT至少一次,且此類敏感數(shù)據(jù)的數(shù)量達(dá)到了上傳數(shù)據(jù)總量的11%。更有甚者,OpenAI公司在其制定的ChatGPT用戶規(guī)則中聲明,用戶與大模型交互產(chǎn)生的數(shù)據(jù)將會被用來作為模型升級迭代的訓(xùn)練數(shù)據(jù)。也即,這些用戶與大模型之間真實的交互數(shù)據(jù)會被ChatGPT作為大模型微調(diào)時的重要數(shù)據(jù)來源,用來提高大模型輸出的信息與用戶需求之間的契合度。這就意味著用戶在使用ChatGPT的云計算服務(wù)時,自身輸入的信息數(shù)據(jù)會被大模型在后續(xù)模型訓(xùn)練中使用,如果其中包含了商業(yè)秘密或個人隱私信息,也都將會被大模型深度分析。

可見,雖然MLaaS運營模式使得大模型開發(fā)者獲取了源源不斷的高質(zhì)量訓(xùn)練數(shù)據(jù),形成了“數(shù)據(jù)飛輪”效應(yīng),能夠不斷提高大模型信息生成的質(zhì)量,但同時卻將大模型用戶置于泄露敏感信息數(shù)據(jù)的風(fēng)險之地。特別是當(dāng)國內(nèi)用戶在使用諸如ChatGPT之類的國外大模型時,一旦輸入的信息數(shù)據(jù)涉及個人隱私、商業(yè)秘密甚至國家秘密,此類面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險所可能導(dǎo)致的危害后果就會尤其嚴(yán)重。

(二)面向攻擊者的數(shù)據(jù)泄露風(fēng)險

面向攻擊者的數(shù)據(jù)泄露風(fēng)險是指基于人工智能大模型的技術(shù)缺陷,具備一定技術(shù)能力的攻擊者可以通過技術(shù)手段反向提取出應(yīng)用于大模型預(yù)訓(xùn)練的訓(xùn)練數(shù)據(jù)或其他用戶輸入的數(shù)據(jù)。

正如前文論述中一再提及的,大模型的技術(shù)原理決定了它并不是將訓(xùn)練數(shù)據(jù)直接儲存在自身的大模型中,而是通過對訓(xùn)練數(shù)據(jù)的分析,獲取其中蘊含的詞元間概率分布規(guī)律,然后依據(jù)這種概率分布規(guī)律推算并輸出信息。因此,大模型的訓(xùn)練數(shù)據(jù)并不會像儲存在硬盤介質(zhì)中的數(shù)據(jù)那樣,因為攻擊者的秘密復(fù)制拷貝而泄露。但是,這卻并不意味著大模型的訓(xùn)練數(shù)據(jù)就不會產(chǎn)生數(shù)據(jù)泄露風(fēng)險,而只是其數(shù)據(jù)泄露的技術(shù)原理和途徑有所不同而已。歸納而言,目前面向攻擊者的數(shù)據(jù)泄露方式主要存在兩種:

1.攻擊者可以通過技術(shù)手段從大模型中反向抽取出用于預(yù)訓(xùn)練的原始訓(xùn)練數(shù)據(jù)。早在對GPT-2的研究中,就已經(jīng)有研究者發(fā)現(xiàn)可以通過技術(shù)手段從GPT-2的模型中反向抽取出預(yù)訓(xùn)練時模型所使用的訓(xùn)練數(shù)據(jù),包括其中涉及的個人隱私數(shù)據(jù)。也有研究對現(xiàn)有主流的人工智能大模型進(jìn)行對比之后發(fā)現(xiàn),無論是開源的大模型(如Pythia、GPT-Neo)、半開源的大模型(如LLaMA、Falcon),還是閉源的大模型(如ChatGPT),都可以通過技術(shù)手段從中抽取出原始的訓(xùn)練數(shù)據(jù),并且抽取的都是以GB為計算單位的龐大體量數(shù)據(jù)。這項研究還發(fā)現(xiàn),雖然使用傳統(tǒng)的數(shù)據(jù)抽取方法較難獲得ChatGPT(基于GPT-3.5-Turbo模型)中的原始訓(xùn)練數(shù)據(jù),但是一旦研究者升級了數(shù)據(jù)抽取方法后,就能以相當(dāng)于正常情況下150倍的速率抽取出ChatGPT中的原始訓(xùn)練數(shù)據(jù)。

這些研究表明,雖然大模型本身并不存儲訓(xùn)練數(shù)據(jù),但是通過技術(shù)手段仍然可以從大模型中抽取出原始的訓(xùn)練數(shù)據(jù)。這意味著如果大模型的原始訓(xùn)練數(shù)據(jù)中包含了個人信息數(shù)據(jù)、商業(yè)秘密數(shù)據(jù)或者涉及國家安全的數(shù)據(jù),那么就可能會產(chǎn)生面向攻擊者的數(shù)據(jù)泄露風(fēng)險。尤其是目前開源大模型不斷涌現(xiàn),大模型的代碼、參數(shù)甚至訓(xùn)練數(shù)據(jù)集本身都可能會被開源,這樣就會更便利攻擊者對大模型訓(xùn)練數(shù)據(jù)的分析與抽取,加劇面向攻擊者的數(shù)據(jù)泄露風(fēng)險。

2.攻擊者可以通過使用特定的提示詞,誘導(dǎo)大模型輸出其他用戶所輸入的外部數(shù)據(jù)。這種數(shù)據(jù)泄露并非大模型原始訓(xùn)練數(shù)據(jù)的泄露,而是大模型用戶上傳數(shù)據(jù)的泄露,因此不同于前一種面向攻擊者的數(shù)據(jù)泄露。由于此類數(shù)據(jù)常常會被開發(fā)者用來進(jìn)行大模型的迭代升級訓(xùn)練,所以也可以納入大模型訓(xùn)練數(shù)據(jù)的范疇。例如,在OpenAI公司發(fā)布的GPT-4 Turbo中,除了支持用戶在上下文窗口中輸入128K(相當(dāng)于300頁文本)的提示詞之外,還支持用戶上傳外部數(shù)據(jù),以補(bǔ)充大模型本身訓(xùn)練數(shù)據(jù)的不足。然而在互聯(lián)網(wǎng)的技術(shù)社區(qū)中,已經(jīng)有技術(shù)人員發(fā)現(xiàn),通過輸入特定的提示詞,就可以誘導(dǎo)GPT-4 Turbo向自己輸出其他用戶輸入的提示詞或者上傳的外部數(shù)據(jù)。這就意味著GPT-4 Turbo用戶所輸入的數(shù)據(jù)不但會被開發(fā)者獲得,而且還會被其他具有一定技術(shù)能力的用戶獲得,這使GPT-4 Turbo用戶輸入的數(shù)據(jù)面臨更高的泄露風(fēng)險。

此外,還存在另一類似的數(shù)據(jù)泄露風(fēng)險,即檢索增強(qiáng)生成技術(shù)(RAG)外掛知識庫中個人信息數(shù)據(jù)的泄露風(fēng)險。如前所述,目前大模型開發(fā)者為了提高模型輸出信息的精確度和時效性,普遍開始采用RAG技術(shù)來增強(qiáng)大模型的性能,為大模型增加一個可以不斷升級更新數(shù)據(jù)的外掛知識庫。該技術(shù)確實提高了大模型輸出信息的精確度和時效性,但一項最新研究發(fā)現(xiàn),攻擊者可以通過一種叫做復(fù)合結(jié)構(gòu)提示詞的攻擊方法,從采用RAG技術(shù)的大模型中誘導(dǎo)輸出外掛知識庫中的個人信息數(shù)據(jù)。該研究結(jié)果表明,隨著RAG技術(shù)在大模型開發(fā)中應(yīng)用面的不斷拓展,外掛知識庫中敏感信息數(shù)據(jù)的泄露風(fēng)險也在不斷累積。

由此可見,人工智能大模型在技術(shù)或運營模式上的特點決定了它在運行中會產(chǎn)生面向開發(fā)者的數(shù)據(jù)泄露和面向攻擊者的數(shù)據(jù)泄露這兩種主要的數(shù)據(jù)泄露風(fēng)險,在討論大模型訓(xùn)練數(shù)據(jù)風(fēng)險的法律規(guī)制措施時必須將其作為重點問題進(jìn)行分析。

四、人工智能大模型訓(xùn)練數(shù)據(jù)風(fēng)險的法律規(guī)制措施

雖然人工智能大模型的訓(xùn)練數(shù)據(jù)存在著多種風(fēng)險,但對這些風(fēng)險的防范與應(yīng)對不能簡單地通過禁止大模型開發(fā)的方式實現(xiàn)。因為在數(shù)字經(jīng)濟(jì)時代,人工智能生成內(nèi)容技術(shù)(Artificial Intelligence Generated Content)代表了新一輪內(nèi)容生產(chǎn)方式的變革,大模型的研發(fā)已成為新科技革命的潮頭,是各國科技競爭的核心領(lǐng)域,其發(fā)展對于我國屹立于科技強(qiáng)國之列具有至關(guān)重要的作用。因此,我們應(yīng)選擇適宜的法律規(guī)制措施,從包容審慎的基本法律規(guī)制理念出發(fā),在兼顧人工智能大模型對數(shù)字經(jīng)濟(jì)社會發(fā)展促進(jìn)作用的同時,盡可能降低其訓(xùn)練數(shù)據(jù)風(fēng)險的實際發(fā)生概率,從而平衡兩者之間的關(guān)系。基于前文對大模型訓(xùn)練數(shù)據(jù)風(fēng)險類型及成因的分析,我們主要可以從以下幾個方面實施相應(yīng)的法律規(guī)制措施。

(一)通過調(diào)整現(xiàn)行立法滿足開發(fā)者的訓(xùn)練數(shù)據(jù)需求

正如前文分析顯示,大模型在使用超大規(guī)模數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練時,會存在涉及作品類數(shù)據(jù)的著作權(quán)侵權(quán)風(fēng)險與涉及個人信息數(shù)據(jù)的個人信息侵權(quán)風(fēng)險。也即,大模型預(yù)訓(xùn)練活動可能會違反我國《著作權(quán)法》及《個人信息保護(hù)法》中設(shè)定的法律規(guī)則,在著作權(quán)或個人信息權(quán)益保護(hù)方面存在侵權(quán)風(fēng)險。這種侵權(quán)風(fēng)險事實上形成了開發(fā)者獲取訓(xùn)練數(shù)據(jù)的制度性障礙,如果我們要著力發(fā)展人工智能大模型,促進(jìn)我國相關(guān)技術(shù)和產(chǎn)業(yè)的快速進(jìn)步,那么就應(yīng)通過適當(dāng)調(diào)整現(xiàn)行立法中的相關(guān)規(guī)定來滿足我國大模型開發(fā)者的訓(xùn)練數(shù)據(jù)需求。2.調(diào)整《著作權(quán)法》的規(guī)定,將開發(fā)者使用作品類數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練的活動設(shè)定為著作權(quán)合理使用方式之一。作品類數(shù)據(jù)是人類文化藝術(shù)創(chuàng)作精華的集中體現(xiàn),是大模型訓(xùn)練數(shù)據(jù)中質(zhì)量最高的部分,因而也是大模型訓(xùn)練數(shù)據(jù)中不可或缺的重要組成部分。如果開發(fā)者獲取此類訓(xùn)練數(shù)據(jù)的成本過高,那么就可能會阻礙人工智能大模型的發(fā)展速度,導(dǎo)致我國在人工智能科技和產(chǎn)業(yè)的大國競爭中處于劣勢地位,最終將影響數(shù)字經(jīng)濟(jì)時代的整體國家利益。

因此,我們應(yīng)通過適當(dāng)調(diào)整《著作權(quán)法》的規(guī)定為大模型開發(fā)者合法使用作品類數(shù)據(jù)提供必要的制度保障。依據(jù)前述關(guān)于應(yīng)對著作權(quán)侵權(quán)風(fēng)險的現(xiàn)有理論,一種調(diào)整的方式是將“過程性復(fù)制”或“非作品性使用”的概念納入成文法的規(guī)定,使其成為法定概念,并以此來賦予大模型預(yù)訓(xùn)練使用作品類數(shù)據(jù)的合法性。但是,這種方式相當(dāng)于在成文法中又創(chuàng)設(shè)了新的不確定法律概念,對于哪些復(fù)制行為屬于“過程性復(fù)制”或者哪些使用方式屬于“非作品性使用”的問題將可能產(chǎn)生新的爭議,反而導(dǎo)致進(jìn)一步的復(fù)雜化。因此,通過調(diào)整現(xiàn)行立法的規(guī)定,將使用作品類數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練活動明確設(shè)定為著作權(quán)的合理使用方式之一或許是更適宜的方式。這種調(diào)整既不會因引入新的概念而產(chǎn)生額外爭議,也能夠為開發(fā)者從事大模型研發(fā)減少制度上的阻礙。

不過,如果立法僅僅是單方面地允許開發(fā)者使用作品類數(shù)據(jù)進(jìn)行大模型訓(xùn)練,對于作品的著作權(quán)人而言是不公平的。立法的調(diào)整既應(yīng)當(dāng)平衡開發(fā)者與著作權(quán)人之間的利益關(guān)系,同時也應(yīng)當(dāng)平衡二者的利益與公共利益之間的關(guān)系。因此,在將大模型預(yù)訓(xùn)練使用作品類數(shù)據(jù)設(shè)定為著作權(quán)合理使用方式的同時,還應(yīng)當(dāng)通過以下兩種途徑兼顧與平衡相關(guān)的利益:

其一,允許著作權(quán)人通過明確形式表達(dá)保留權(quán)利、拒絕作品用于大模型預(yù)訓(xùn)練的意愿。如果著作權(quán)人非常明確地表示不愿意自己的作品被用于大模型預(yù)訓(xùn)練,那么這種意愿就應(yīng)該得到尊重。當(dāng)然,這種意愿應(yīng)該由著作權(quán)人以清晰且具有針對性(針對大模型預(yù)訓(xùn)練活動)的形式表達(dá)出來,而不能通過概括地宣稱“保留作品一切權(quán)利”的形式來表達(dá)。假如著作權(quán)人采用了后一種形式,那么立法中仍然應(yīng)當(dāng)默認(rèn)開發(fā)者有權(quán)將作品用于大模型預(yù)訓(xùn)練。

其二,通過征收著作權(quán)補(bǔ)償金成立公益性基金會來激勵和促進(jìn)文化藝術(shù)創(chuàng)作。大模型訓(xùn)練數(shù)據(jù)體量巨大,甚至可以囊括互聯(lián)網(wǎng)上所有的數(shù)字化作品。如果要求開發(fā)者對每位著作權(quán)人支付使用費,且不說確定不同作品使用費額度的工作量巨大,幾乎是不可能完成的任務(wù)。即使能確定不同作品的使用費額度,海量作品的使用費相加形成的總額度也會讓開發(fā)者不堪重負(fù),甚至放棄大模型的研發(fā)。因此,較為適宜的方法是由政府監(jiān)管機(jī)關(guān)對大模型開發(fā)者收取一定數(shù)量的著作權(quán)補(bǔ)償金,并據(jù)此成立公益性質(zhì)的基金會,專門從事激勵與促進(jìn)文化藝術(shù)發(fā)展的工作,從而實現(xiàn)社會公共利益與私人商業(yè)利益之間的平衡。

2.調(diào)整《個人信息保護(hù)法》的規(guī)定,在保護(hù)信息主體人格權(quán)的底線之上消除開發(fā)者使用個人信息數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練活動的規(guī)則障礙。與作品類數(shù)據(jù)相似,個人信息數(shù)據(jù)也是大模型訓(xùn)練數(shù)據(jù)的重要組成部分。目前美國、英國、新加坡等國都對個人信息數(shù)據(jù)用于人工智能系統(tǒng)開發(fā)持積極態(tài)度。降低開發(fā)者使用個人信息數(shù)據(jù)進(jìn)行大模型預(yù)訓(xùn)練的成本對于促進(jìn)我國人工智能大模型的發(fā)展具有重要意義。調(diào)整《個人信息保護(hù)法》中相關(guān)規(guī)定的具體途徑包括:

其一,通過立法設(shè)定開發(fā)者使用普通個人信息進(jìn)行大模型預(yù)訓(xùn)練的“默示同意”規(guī)則,同時保留開發(fā)者使用敏感個人信息進(jìn)行大模型預(yù)訓(xùn)練的“明示同意”規(guī)則。根據(jù)現(xiàn)行《個人信息保護(hù)法》的規(guī)定,個人信息可以區(qū)分為敏感個人信息和普通個人信息。一般而言,對敏感個人信息的處理活動更有可能影響到信息主體的隱私等人格權(quán),而對普通個人信息的處理活動則侵害隱私等人格權(quán)的風(fēng)險相對較小,因而“敏感個人信息較一般類型個人信息而言具有更高的法益”。由此,我們在立法調(diào)整中應(yīng)當(dāng)允許開發(fā)者依據(jù)“默示同意”規(guī)則使用普通個人信息進(jìn)行大模型預(yù)訓(xùn)練活動,也即只要信息主體沒有作出特別的例外聲明,都默認(rèn)其同意自身的普通個人信息被開發(fā)者用于大模型預(yù)訓(xùn)練活動。但是,對于更有可能涉及信息主體人格權(quán)的敏感個人信息,則仍然應(yīng)當(dāng)堅持“明示同意”規(guī)則,也即開發(fā)者必須征得信息主體的明確同意后才能將之用于大模型預(yù)訓(xùn)練活動。

根據(jù)理查德·塞勒(Richard Thaler)和卡斯·桑斯坦(Cass Sunstein)提出的“助推”(Nudge)理論,如果要鼓勵人們采取某種行為,就一定要讓其變得簡單,而要讓人們打消某種行為念頭,則要設(shè)置障礙讓其變得困難。P100,P151上述“默示同意”規(guī)則和“明示同意”規(guī)則的立法設(shè)置將會給開發(fā)者使用不同類型個人信息制造不同制度阻力,從而引導(dǎo)開發(fā)者更傾向于使用制度阻力較小且侵害信息主體人格權(quán)的可能性也較小的普通個人信息進(jìn)行大模型預(yù)訓(xùn)練,同時減少使用制度阻力較大且侵害信息主體人格權(quán)的可能性也較大的敏感個人信息進(jìn)行大模型預(yù)訓(xùn)練。通過這樣的立法調(diào)整,我們可以在降低開發(fā)者使用個人信息數(shù)據(jù)進(jìn)行人工智能大模型預(yù)訓(xùn)練的成本、促進(jìn)大模型發(fā)展的同時,守住保護(hù)信息主體人格權(quán)的底線,最大限度地降低對信息主體權(quán)益的侵害風(fēng)險。

其二,將大模型開發(fā)者處理已公開個人信息的“合理范圍”界定在不侵害信息主體人格權(quán)的底線之上。如前所述,在大模型時代,無論是“目的限定原則”還是“場景理論”都難以順利界定大模型預(yù)訓(xùn)練時處理已公開個人信息的“合理范圍”,這就使得開發(fā)者始終游走于違法處理已公開個人信息的邊緣。因此,避開對“合理范圍”這一不確定法律概念的正面解釋,通過設(shè)定大模型預(yù)訓(xùn)練使用已公開個人信息的底線來界定“合理范圍”或許更具操作性,這一底線就是大模型預(yù)訓(xùn)練不能侵害信息主體的人格權(quán)。也即,只要大模型開發(fā)者在使用已公開個人信息進(jìn)行預(yù)訓(xùn)練時沒有侵害信息主體的人格權(quán),就應(yīng)當(dāng)屬于在“合理范圍”內(nèi)使用已公開個人信息。這種劃定底線的方式可以避免對“合理范圍”這一不確定法律概念的復(fù)雜解釋,而只需關(guān)注大模型預(yù)訓(xùn)練活動是否產(chǎn)生對信息主體人格權(quán)侵害的實際后果。于是,“合理范圍”這一不確定法律概念的解釋難題就可以轉(zhuǎn)化為大模型預(yù)訓(xùn)練活動是否產(chǎn)生人格權(quán)侵權(quán)的法律判斷問題,而后者在法學(xué)領(lǐng)域中的相關(guān)研究成果汗牛充棟、非常成熟,作出準(zhǔn)確法律判斷的難度會小很多。通過這樣的立法調(diào)整,我們就能在盡力維護(hù)信息主體人格權(quán)的同時,最大限度地為大模型開發(fā)者使用已公開個人信息進(jìn)行大模型的預(yù)訓(xùn)練活動提供合法性保障。

(二)通過元規(guī)制激勵開發(fā)者防范訓(xùn)練數(shù)據(jù)的偏差風(fēng)險

從前文分析可知,大模型的訓(xùn)練數(shù)據(jù)偏差風(fēng)險主要源于數(shù)據(jù)本身的質(zhì)量問題以及大模型預(yù)訓(xùn)練的技術(shù)特征,因而應(yīng)對此類風(fēng)險的最有效途徑是由開發(fā)者通過技術(shù)手段“以魔法打敗魔法”,如提高訓(xùn)練數(shù)據(jù)的清洗力度、通過低秩適配技術(shù)(Low-Rank Adaptation)微調(diào)模型、全面采用檢索增強(qiáng)生成技術(shù)(RAG)等。然而,開發(fā)者采用技術(shù)手段防范訓(xùn)練數(shù)據(jù)的偏差風(fēng)險并非免費,相反是需要支出大量成本的活動。雖然開發(fā)者出于吸引用戶的考量——如提高大模型輸出信息的準(zhǔn)確度能夠吸引更多用戶——會有一定動力投入研發(fā)成本降低此類風(fēng)險的發(fā)生概率。但是,目前大模型的開發(fā)者多為商業(yè)性公司,它們出于盈利的組織本能,必然也會有降低研發(fā)成本、提高組織利潤的考量。這就導(dǎo)致開發(fā)者并不會在防范數(shù)據(jù)偏差風(fēng)險上過多投入成本,而只會將此類風(fēng)險控制在不對自身利益產(chǎn)生明顯損害的程度上。因此,不能將降低大模型訓(xùn)練數(shù)據(jù)偏差風(fēng)險的希望僅寄托在開發(fā)者的自覺自愿之上,而是需要一種外在于開發(fā)者且能代表公共利益的力量來督促其最大限度地消除訓(xùn)練數(shù)據(jù)的偏差風(fēng)險。

由行政機(jī)關(guān)實施的行政規(guī)制正是這樣一種有效的外在力量,我們可以通過行政規(guī)制的力量來督促開發(fā)者投入成本并適用相關(guān)技術(shù)手段來降低大模型訓(xùn)練數(shù)據(jù)的偏差風(fēng)險。不過,由于開發(fā)者防范數(shù)據(jù)偏差風(fēng)險的活動涉及高度復(fù)雜的技術(shù)運用,這會形成行政規(guī)制機(jī)關(guān)與開發(fā)者之間的高度信息不對稱問題。這種高度信息不對稱問題的存在將會使行政規(guī)制機(jī)關(guān)很難確切掌握開發(fā)者所運用技術(shù)的細(xì)節(jié)之處,由此也就難以對開發(fā)者實施有效監(jiān)管。那么,應(yīng)當(dāng)如何應(yīng)對人工智能大模型監(jiān)管中的這種高度信息不對稱問題?元規(guī)制(Meta-Regulation)或許是一種有效的應(yīng)對措施。

2.行政規(guī)制理論中的元規(guī)制,是指行政規(guī)制機(jī)關(guān)并不直接干涉規(guī)制對象的行為,而是要求規(guī)制對象針對特定的風(fēng)險問題自行制定完善的風(fēng)險規(guī)制方案,并對這種風(fēng)險規(guī)制方案的運行實施監(jiān)督。P150元規(guī)制區(qū)別于以“命令—服從”關(guān)系為特征的傳統(tǒng)行政規(guī)制方式,而是由行政規(guī)制機(jī)關(guān)要求規(guī)制對象制定應(yīng)對特定風(fēng)險的自我規(guī)制(self-regulation)方案,然后通過監(jiān)督這一自我規(guī)制方案的實施來實現(xiàn)對特定風(fēng)險的規(guī)制,因而被稱為行政規(guī)制機(jī)關(guān)對自我規(guī)制的一種監(jiān)督。元規(guī)制的方法非常適合存在高度信息不對稱的規(guī)制場景。P160-170因為它要求最為熟悉自身組織結(jié)構(gòu)和應(yīng)對風(fēng)險狀況的規(guī)制對象自行制定相應(yīng)的風(fēng)險規(guī)制方案,因此行政規(guī)制機(jī)關(guān)能夠避免耗費過多的成本來減輕與規(guī)制對象之間的高度信息不對稱,也無需耗費精力掌握風(fēng)險防范的具體技術(shù)細(xì)節(jié),從而能夠?qū)⒁?guī)制力量集中于監(jiān)督規(guī)制對象自行制定的風(fēng)險規(guī)制方案的可行性與實效性之上,從而避免了行政規(guī)制在高度信息不對稱的場景中被架空。

將元規(guī)制的方法應(yīng)用于大模型訓(xùn)練數(shù)據(jù)偏差風(fēng)險的防范之上,意味著行政規(guī)制機(jī)關(guān)無需對開發(fā)者的大模型預(yù)訓(xùn)練活動進(jìn)行直接干涉,從而能夠避免過高的技術(shù)信息壁壘使行政規(guī)制機(jī)關(guān)的監(jiān)管流于形式,無法實現(xiàn)應(yīng)有的規(guī)制績效。該方法之下,行政規(guī)制機(jī)關(guān)要求大模型開發(fā)者根據(jù)實際情況制定適宜的防范訓(xùn)練數(shù)據(jù)偏差風(fēng)險的自我規(guī)制方案,擬定具有可行性的風(fēng)險防范效果評估標(biāo)準(zhǔn);然后,開發(fā)者在將該方案報經(jīng)行政規(guī)制機(jī)關(guān)審核通過后,依據(jù)方案的設(shè)定在大模型開發(fā)活動中開展防范訓(xùn)練數(shù)據(jù)偏差風(fēng)險的自我規(guī)制;行政規(guī)制機(jī)關(guān)則通過對風(fēng)險自我規(guī)制方案的監(jiān)督檢查來間接實現(xiàn)防范大模型訓(xùn)練數(shù)據(jù)偏差風(fēng)險的規(guī)制目標(biāo)。簡言之,大模型訓(xùn)練數(shù)據(jù)偏差風(fēng)險的元規(guī)制就是行政規(guī)制機(jī)關(guān)通過監(jiān)督大模型開發(fā)者自己制定的風(fēng)險規(guī)制方案來實現(xiàn)預(yù)定的行政規(guī)制目標(biāo)。

2.雖然元規(guī)制的方式能夠利用大模型開發(fā)者的信息優(yōu)勢協(xié)助行政規(guī)制機(jī)關(guān)實現(xiàn)規(guī)制目的,但是開發(fā)者同樣有可能利用自身的信息優(yōu)勢削弱元規(guī)制的規(guī)制效果。例如,開發(fā)者可以通過制定成本投入相對較低的自我規(guī)制方案來削弱規(guī)制效果,而行政規(guī)制機(jī)關(guān)囿于高度信息不對稱并不一定能夠發(fā)現(xiàn)其中的奧妙。或者開發(fā)者可以通過陽奉陰違的方式在形式上滿足自我規(guī)制方案的要求,但實質(zhì)上則并未努力實現(xiàn)有效防范訓(xùn)練數(shù)據(jù)偏差風(fēng)險的規(guī)制目的。因此,還需要其他法律規(guī)制工具來確保元規(guī)制的有效實施。

法律責(zé)任的設(shè)定就是這樣一種法律規(guī)制工具。就法理而言,法律責(zé)任可以視為社會主體實施相應(yīng)行為所承擔(dān)的成本之一。我們可以通過法律責(zé)任的設(shè)定來發(fā)揮法律所具有的“期望激勵”功能,P91引導(dǎo)社會主體朝行政規(guī)制機(jī)關(guān)設(shè)定的方向行為。例如,可以在立法中明確設(shè)定大模型輸出具有價值偏差的信息時開發(fā)者應(yīng)承擔(dān)的法律責(zé)任,要求開發(fā)者在出現(xiàn)此類問題時承擔(dān)相應(yīng)的不利法律后果。開發(fā)者為了避免承擔(dān)不利法律后果,就會有動力響應(yīng)元規(guī)制中行政規(guī)制機(jī)關(guān)提出的要求,制定能有效防范訓(xùn)練數(shù)據(jù)偏差風(fēng)險的自我規(guī)制方案并認(rèn)真施行,以避免因大模型輸出具有價值偏差的信息而承擔(dān)法律上的不利后果。

不過,法律責(zé)任存在許多種類,在我國成文法中的法律責(zé)任主要包括民事法律責(zé)任、行政法律責(zé)任和刑事法律責(zé)任三種類型。P55那么,為了防范大模型訓(xùn)練數(shù)據(jù)的偏差風(fēng)險,在立法中設(shè)定何種類型的法律責(zé)任更為適宜呢?答案是行政法律責(zé)任。這是因為,民事法律責(zé)任以賠償當(dāng)事人的損害為主要形式,并且通常需要由受害者自行提起民事訴訟,請求法院予以支持。在大模型的技術(shù)語境下,因訓(xùn)練數(shù)據(jù)偏差導(dǎo)致大模型輸出偏差信息時,雖然作為受害者的用戶在范圍上十分廣泛,但是就單個用戶而言所受的損害通常卻極為微小。因而,作為個體的用戶提起民事訴訟要求損害賠償?shù)目赡苄院艿停纱碎_發(fā)者承擔(dān)相應(yīng)民事法律責(zé)任的可能性也就很低。這意味著民事法律責(zé)任并不能有效激勵開發(fā)者增加防范大模型訓(xùn)練數(shù)據(jù)偏差風(fēng)險的成本投入。而與民事法律責(zé)任過低的激勵強(qiáng)度相反,刑事法律責(zé)任的激勵強(qiáng)度則明顯過高。因為大模型訓(xùn)練數(shù)據(jù)偏差風(fēng)險所可能產(chǎn)生的危害后果通常并未達(dá)到嚴(yán)重破壞社會秩序的程度,如果對開發(fā)者輕易設(shè)定刑事法律責(zé)任,那么不但不會激勵其防范訓(xùn)練數(shù)據(jù)偏差的風(fēng)險,反而可能會導(dǎo)致開發(fā)者因畏懼刑事法律責(zé)任而放棄大模型的研發(fā),產(chǎn)生適得其反的不利后果。

因此,相較而言,行政法律責(zé)任的設(shè)定較為合適。這一方面是因為行政法律責(zé)任是由行政規(guī)制機(jī)關(guān)主動予以追究的,并可以依法強(qiáng)制開發(fā)者承擔(dān)責(zé)任,P42這就可以避免民事法律責(zé)任過低的激勵強(qiáng)度。另一方面是因為行政法律責(zé)任的形式多樣且強(qiáng)度低于刑事法律責(zé)任,這就可以避免刑事法律責(zé)任過高的激勵強(qiáng)度,使行政規(guī)制機(jī)關(guān)能夠更靈活地激勵開發(fā)者加大防范訓(xùn)練數(shù)據(jù)偏差風(fēng)險的力度。

(三)通過加強(qiáng)法定義務(wù)督促開發(fā)者防范訓(xùn)練數(shù)據(jù)的泄露風(fēng)險

前文的分析已經(jīng)表明,大模型訓(xùn)練數(shù)據(jù)的泄露風(fēng)險可以區(qū)分為面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險和面向攻擊者的數(shù)據(jù)泄露風(fēng)險兩種類型。這兩種類型的數(shù)據(jù)泄露風(fēng)險都需要開發(fā)者主動運用技術(shù)手段才能有效防范,因此前述元規(guī)制的行政規(guī)制方式同樣可以適用。也即,行政規(guī)制機(jī)關(guān)可以要求開發(fā)者制定防范訓(xùn)練數(shù)據(jù)泄露風(fēng)險的自我規(guī)制方案,并設(shè)定訓(xùn)練數(shù)據(jù)泄露時開發(fā)者所應(yīng)承擔(dān)的行政法律責(zé)任,然后通過監(jiān)督開發(fā)者自我規(guī)制方案的實施情況并追究其泄露訓(xùn)練數(shù)據(jù)的行政法律責(zé)任的方式來達(dá)成相應(yīng)的規(guī)制目標(biāo)。除此以外,根據(jù)這兩種大模型訓(xùn)練數(shù)據(jù)泄露風(fēng)險的技術(shù)特性,我們還可以通過加強(qiáng)開發(fā)者相關(guān)法定義務(wù)的方式來督促其積極實施風(fēng)險防范措施。

1.通過增設(shè)開發(fā)者的“顯著標(biāo)識義務(wù)”防范面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險。大模型與用戶間真實的交互數(shù)據(jù)是開發(fā)者迭代更新大模型的重要訓(xùn)練數(shù)據(jù)來源。如果為了防范面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險而完全禁止開發(fā)者獲取此類數(shù)據(jù),就會阻礙人工智能大模型的快速發(fā)展,也不符合包容審慎的基本規(guī)制理念。相較而言,設(shè)定大模型開發(fā)者的“顯著標(biāo)識義務(wù)”或許是更適宜的規(guī)制方式。“顯著標(biāo)識義務(wù)”要求開發(fā)者通過技術(shù)手段,在大模型應(yīng)用過程中“顯著”提示用戶輸入的信息數(shù)據(jù)會被用于大模型的迭代更新訓(xùn)練,從而避免用戶無意間輸入敏感信息數(shù)據(jù)。

雖然現(xiàn)有大模型一般都在用戶使用協(xié)議中注明用戶輸入的信息會被用于大模型迭代訓(xùn)練。但是從其內(nèi)容設(shè)置方式上來看,通常都是在長篇累牘的協(xié)議條款中的不起眼角落提及這一點,絕大多數(shù)用戶并不會仔細(xì)閱讀全部使用協(xié)議條款,更不會對此著重予以關(guān)注。并且,用戶對大模型使用協(xié)議條款的同意往往是一次性的,只要點擊同意選項,后續(xù)使用過程中,大模型就不會再提示相關(guān)的數(shù)據(jù)風(fēng)險。這就導(dǎo)致大模型用戶雖然點擊了同意,但其實并未真正意識到其輸入的信息數(shù)據(jù)會被用于大模型的迭代訓(xùn)練,也無法意識到其輸入的數(shù)據(jù)存在面向開發(fā)者的泄露風(fēng)險。可見,僅在大模型的使用協(xié)議條款中提示用戶存在此種數(shù)據(jù)泄露風(fēng)險并不足以達(dá)到風(fēng)險防范的理想效果。

因此,設(shè)定大模型開發(fā)者的“顯著標(biāo)識義務(wù)”就體現(xiàn)出其必要性。具體而言,該項義務(wù)要求開發(fā)者提供的大模型服務(wù)在用戶“每次”輸入信息數(shù)據(jù)時都應(yīng)當(dāng)通過顯著的標(biāo)識(如在信息輸入窗口中顯示固定提示標(biāo)簽或醒目彈窗),提醒用戶其輸入的信息數(shù)據(jù)會被上傳至開發(fā)者的服務(wù)器并用于后續(xù)大模型的迭代更新訓(xùn)練。可以預(yù)見,由于用戶輸入上傳的信息數(shù)據(jù)對于開發(fā)者的重要性很高,顯著標(biāo)識功能的實現(xiàn)會降低用戶輸入重要信息數(shù)據(jù)的可能性,因此開發(fā)者并沒有動力主動在大模型中增加此項功能。所以,需要通過立法的途徑強(qiáng)制設(shè)定開發(fā)者的“顯著標(biāo)識義務(wù)”,要求開發(fā)者必須提供這一技術(shù)功能,否則將會承擔(dān)不利法律后果。這種義務(wù)的設(shè)定在降低面向開發(fā)者數(shù)據(jù)泄露風(fēng)險的同時,也允許用戶將自身認(rèn)為適宜的信息數(shù)據(jù)提交給開發(fā)者,幫助開發(fā)者實現(xiàn)大模型的迭代更新訓(xùn)練,這就實現(xiàn)了防范面向開發(fā)者的數(shù)據(jù)泄露風(fēng)險與促進(jìn)人工智能大模型發(fā)展之間關(guān)系的平衡,能夠?qū)崿F(xiàn)包容審慎的基本法律規(guī)制理念。

2.通過擴(kuò)張開發(fā)者的數(shù)據(jù)安全保護(hù)義務(wù)防范面向攻擊者的數(shù)據(jù)泄露風(fēng)險。面向攻擊者的數(shù)據(jù)泄露風(fēng)險是威脅數(shù)據(jù)安全的主要情形,由于我國《數(shù)據(jù)安全法》中設(shè)定的數(shù)據(jù)安全保護(hù)義務(wù)適用于所有的數(shù)據(jù)處理活動,因此《數(shù)據(jù)安全法》建構(gòu)的法律規(guī)制框架也同樣適用于規(guī)制此類數(shù)據(jù)泄露風(fēng)險。目前《數(shù)據(jù)安全法》采用了依據(jù)數(shù)據(jù)本身的性質(zhì)實行分類分級保護(hù)的規(guī)制思路,其區(qū)分了普通數(shù)據(jù)、重要數(shù)據(jù)與國家核心數(shù)據(jù)三種不同的數(shù)據(jù)類型。在此種分類的基礎(chǔ)上,《數(shù)據(jù)安全法》在第四章中設(shè)定了數(shù)據(jù)處理者的數(shù)據(jù)安全保護(hù)義務(wù),其中特別針對“重要數(shù)據(jù)”的處理者設(shè)定了“明確數(shù)據(jù)安全負(fù)責(zé)人和管理機(jī)構(gòu)”“定期開展數(shù)據(jù)處理活動風(fēng)險評估”“向有關(guān)主管部門報送數(shù)據(jù)處理活動風(fēng)險評估報告”等義務(wù)(第27、29、30條)。同時,《數(shù)據(jù)安全法》在“法律責(zé)任”章節(jié)規(guī)定了當(dāng)數(shù)據(jù)處理者違反這些數(shù)據(jù)安全保護(hù)義務(wù)時,行政主管部門應(yīng)當(dāng)施加責(zé)令改正、警告、罰款、停業(yè)整頓、吊銷許可證或營業(yè)執(zhí)照等規(guī)制措施(第45條)。這些法律規(guī)定共同建構(gòu)了保護(hù)數(shù)據(jù)安全的法律規(guī)制體系,當(dāng)然也可以適用于防范大模型訓(xùn)練數(shù)據(jù)的泄露風(fēng)險。

《數(shù)據(jù)安全法》設(shè)定以上法律規(guī)制體系的本意在于降低數(shù)據(jù)安全保護(hù)負(fù)擔(dān),將更多的力量聚焦于重要數(shù)據(jù)的保護(hù)之上,提高數(shù)據(jù)安全保護(hù)的精準(zhǔn)與效率。然而,由于《數(shù)據(jù)安全法》是在人工智能大模型興起之前制定的,立法時并未預(yù)見到大模型技術(shù)的特殊性,因此當(dāng)這種法律規(guī)制思路應(yīng)用于防范大模型訓(xùn)練數(shù)據(jù)的泄露風(fēng)險時,就會出現(xiàn)不適宜之處。這是因為:其一,大模型具有強(qiáng)大的碎片化信息聚合重組能力,這種能力會導(dǎo)致即使在大模型預(yù)訓(xùn)練階段使用的是普通數(shù)據(jù),也有可能在大模型應(yīng)用時形成并輸出重要的信息數(shù)據(jù);其二,大模型的技術(shù)原理決定了它并不存儲訓(xùn)練數(shù)據(jù)本身,而只是將大模型預(yù)訓(xùn)練階段發(fā)現(xiàn)的詞元間概率分布規(guī)律以參數(shù)的形式保留在模型中。由此,對于大模型預(yù)訓(xùn)練來說,普通數(shù)據(jù)和重要數(shù)據(jù)其實沒有什么實質(zhì)性區(qū)別,兩者中包含的詞元間概率分布規(guī)律都會被無差別地挖掘并存儲在大模型的參數(shù)之中;其三,大模型的預(yù)訓(xùn)練數(shù)據(jù)來源廣泛,數(shù)據(jù)的多樣性和非標(biāo)準(zhǔn)化特征突出,這就使基于數(shù)據(jù)識別進(jìn)行的數(shù)據(jù)分類分級管理非常復(fù)雜、成本高昂。由此,對于大模型開發(fā)者而言,區(qū)分普通數(shù)據(jù)和重要數(shù)據(jù)的意義并不大且區(qū)分成本非常高昂。在大模型的技術(shù)語境中,無論大模型預(yù)訓(xùn)練采用何種類型的數(shù)據(jù),都有可能產(chǎn)生訓(xùn)練數(shù)據(jù)的安全風(fēng)險,都需要開發(fā)者履行同樣的數(shù)據(jù)安全保護(hù)義務(wù)。

因此,我們應(yīng)當(dāng)通過修改《數(shù)據(jù)安全法》或制定專門的《人工智能法》擴(kuò)張大模型開發(fā)者對于訓(xùn)練數(shù)據(jù)的安全保護(hù)義務(wù)。也即,應(yīng)當(dāng)通過立法將各種類型的數(shù)據(jù)都納入大模型開發(fā)者的數(shù)據(jù)安全保護(hù)義務(wù)的范圍內(nèi),要求大模型的開發(fā)者無論處理何種類型的訓(xùn)練數(shù)據(jù),都應(yīng)履行“明確數(shù)據(jù)安全負(fù)責(zé)人和管理機(jī)構(gòu)”“定期開展數(shù)據(jù)處理活動風(fēng)險評估”“向有關(guān)主管部門報送數(shù)據(jù)處理活動風(fēng)險評估報告”等數(shù)據(jù)安全保護(hù)義務(wù),而不是僅僅限定在“重要數(shù)據(jù)”的處理活動上。同時,這樣的立法設(shè)定也在事實上調(diào)整了大模型訓(xùn)練數(shù)據(jù)泄露風(fēng)險規(guī)制的法律依據(jù),使規(guī)制機(jī)關(guān)在實施監(jiān)管活動時,無需刻意區(qū)分開發(fā)者處理的數(shù)據(jù)屬于何種類型的訓(xùn)練數(shù)據(jù),只需一視同仁予以實施監(jiān)管即可,從而降低了規(guī)制的成本,能夠更便利且有效地督促開發(fā)者防范訓(xùn)練數(shù)據(jù)的泄露風(fēng)險。

結(jié) 語

綜上所述,作為數(shù)字時代創(chuàng)新科技發(fā)展的最前沿,人工智能大模型將成為國家之間科技競爭、經(jīng)濟(jì)競爭最為激烈與重要的領(lǐng)域。訓(xùn)練數(shù)據(jù)作為大模型開發(fā)不可或缺的要素,基于目前我國的法律制度框架和大模型的技術(shù)原理,開發(fā)者的數(shù)據(jù)處理活動會產(chǎn)生諸多風(fēng)險,包括:可能違反《著作權(quán)法》和《個人信息保護(hù)法》的數(shù)據(jù)侵權(quán)風(fēng)險,輸出具有價值性、時效性和真實性三方面偏差的信息內(nèi)容的數(shù)據(jù)偏差風(fēng)險,發(fā)生面向開發(fā)者和攻擊者的數(shù)據(jù)泄露風(fēng)險。雖然人工智能大模型訓(xùn)練數(shù)據(jù)存在這些風(fēng)險,但這并不意味著我們要通過禁止使用的方式予以規(guī)制,而是應(yīng)以包容審慎的基本規(guī)制理念為出發(fā)點,選擇適當(dāng)?shù)姆梢?guī)制措施予以應(yīng)對,在不阻礙人工智能大模型發(fā)展的前提下,盡可能降低這些風(fēng)險實際產(chǎn)生危害后果的概率。對此,我們可以通過調(diào)整現(xiàn)行立法滿足大模型開發(fā)者對訓(xùn)練數(shù)據(jù)的合理需求,通過采用元規(guī)制方式激勵開發(fā)者防范數(shù)據(jù)偏差風(fēng)險,通過增強(qiáng)開發(fā)者的數(shù)據(jù)安全保護(hù)義務(wù)督促其防范數(shù)據(jù)泄露風(fēng)險,努力實現(xiàn)人工智能大模型技術(shù)在促進(jìn)經(jīng)濟(jì)社會發(fā)展與降低創(chuàng)新風(fēng)險之間的平衡。

主站蜘蛛池模板: 建昌县| 巴林左旗| 保山市| 延安市| 淮南市| 鄂伦春自治旗| 乐昌市| 大姚县| 田东县| 饶河县| 金坛市| 黄平县| 融水| 格尔木市| 获嘉县| 石棉县| 呼图壁县| 贡觉县| 达日县| 西和县| 安丘市| 西乌| 全州县| 东丰县| 花莲市| 金山区| 安远县| 慈利县| 清水河县| 惠安县| 鱼台县| 历史| 盐山县| 策勒县| 新化县| 湄潭县| 屯昌县| 白朗县| 门源| 平定县| 红河县| 阿坝县| 忻州市| 乡宁县| 怀安县| 三明市| 鲁山县| 石门县| 伊金霍洛旗| 宁乡县| 左贡县| 石狮市| 武宣县| 泽库县| 康平县| 重庆市| 盐亭县| 西昌市| 子长县| 南城县| 耒阳市| 汉源县| 若羌县| 无极县| 邛崃市| 江城| 莫力| 绍兴县| 泰安市| 马关县| 安新县| 临洮县| 杨浦区| 格尔木市| 隆子县| 子洲县| 龙游县| 太仓市| 青州市| 漾濞| 万盛区| 武穴市|