您當前的位置是:  首頁 > 資訊 > IT與互聯(lián)網(wǎng) >

ChatGPT內(nèi)容很炫 ChatGPT所涉知識產(chǎn)權(quán)風險的應對

2023-03-28 10:13:18   作者:   來源:通信世界全媒體   評論:0  點擊:


  隨著人類社會進入Web3.0時代,大數(shù)據(jù)與人工智能深刻地改變著人類社會的生產(chǎn)方式與產(chǎn)業(yè)經(jīng)濟結(jié)構(gòu)。近日,由美國OpenAI公司開發(fā)的一款名為“ChatGPT”的智能聊天機器人引起了社會各界的廣泛關(guān)注。

  中共中央、國務院于2017年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出,“在大力發(fā)展人工智能的同時,必須高度重視其可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展。”

  本文以ChatGPT為切入點,選取人工智能聊天機器人所引起的知識產(chǎn)權(quán)風險進行討論。一是因為ChatGPT的高度智能性主要表現(xiàn)在其能夠模仿人類的表達邏輯,生成的文本內(nèi)容與人類創(chuàng)作的作品高度相近,并且在多數(shù)情況下可以為用戶直接采用,因而版權(quán)歸屬問題、用戶使用限度問題是強人工智能體對當前法律體系帶來的最直觀沖擊。二是強人工智能的發(fā)展以龐大的數(shù)據(jù)集為根基,缺乏足量的數(shù)據(jù)就無法對人工智能進行訓練,而數(shù)據(jù)集的調(diào)用又涉及原始創(chuàng)作者的著作權(quán)與商標權(quán)。

  ChatGPT對當前人工智能的突破

  由于以往的人工智能在“類人性”方面總是有所缺憾,無論是繪畫創(chuàng)作AI“微軟小冰”還是蘋果智能語音助手Siri,都難以完整地復現(xiàn)人類心智,因此這一定義在提出時很大程度上只是對未來的超前設(shè)想,描述了人工智能的發(fā)展遠景。而ChatGPT的出現(xiàn)使人工智能技術(shù)向“類人性表達”的目標無限趨近,其生成文學作品、法律文書、案例分析的能力足以表明,當前生成式AI正從“技術(shù)層”向“應用層”突破,現(xiàn)實地完成人類的高難度工作。具體而言,ChatGPT至少在通用性、智能性與邏輯性3個方面大幅領(lǐng)先于現(xiàn)有生成式AI。

  ChatGPT具有通用人工智能大模型的特征

  以往的人工智能多屬于小語言模型,其應用僅限于特定場景和專業(yè)范疇。ChatGPT則實現(xiàn)了“小模型”向“大模型”的突破,能夠回答法學、計算機、文學、經(jīng)濟學等多種專業(yè)領(lǐng)域的問題,這具有兩方面意蘊。

  一方面,通用性使人工智能的決策模式與人的相似性進一步提高,與AlphaGo等小模型相比,克服場景限制后的ChatGPT很難再被單純地定義為一種專業(yè)輔助工具,至少從外觀上看ChatGPT更接近助手或顧問的角色。

  另一方面,通用性也標志著人工智能技術(shù)逐步走向普適化、平民化應用。統(tǒng)計公司Similarweb數(shù)據(jù)顯示,2023年1月ChatGPT單日平均獨立訪客數(shù)量已達1300萬人次,而至2月初,單日用戶訪問量已達2500萬人次。在以往的小模型階段,人工智能的開發(fā)主要是為了解決特定領(lǐng)域的專業(yè)難題,因此在多數(shù)情況下只有特定行業(yè)的專業(yè)人員能夠接觸、使用AI。通用性人工智能的出現(xiàn),使AI的應用正式從小范圍特定人群走向普羅大眾,與此同時也將潛在風險向社會層面擴散。

  ChatGPT具有高度智能化的特征

  OpenAI官網(wǎng)內(nèi)容顯示,ChatGPT的創(chuàng)新之處在于采用了RLHF(基于人類反饋的強化學習)人工智能訓練方法,該訓練方法使得ChatGPT具有與以往人工智能不同的高度智能化特征。這一訓練過程包含3個階段,首先是監(jiān)督學習階段,相比起AI無監(jiān)督自我學習,監(jiān)督學習需要專業(yè)人員對ChatGPT待解決的問題進行人工數(shù)據(jù)標注,為ChatGPT人工書寫高質(zhì)量的答案。其次是訓練獎勵模型階段,專業(yè)人員通過建立獎勵模型的方式對ChatGPT輸出的不同答案進行打分,促使ChatGPT輸出高分答案。最后是強化學習階段,運用PPO算法不斷強化ChatGPT的能力。

  RLHF訓練方法極大地提升了ChatGPT的智能性,強化了生成式AI的功能,這一提升主要體現(xiàn)在以下兩個方面。其一,ChatGPT能夠基于人類反饋模仿人類的表達方式和表達邏輯。以往生成式AI所輸出的文本存在邏輯性較差、語序混亂、表達生硬以及情感缺失等問題,與人類的表達方式相去甚遠,因此無法被用戶直接使用。而ChatGPT能夠?qū)W習、模仿人類的表達方式,輸出邏輯更嚴密、表達更健全的文本內(nèi)容,因此可以在不經(jīng)用戶改寫或少量改寫的情況下直接使用。其二,ChatGPT能夠精準識別用戶指令,輸出與用戶需求高度匹配的答案。ChatGPT與之前的模型相比,其對話生成實現(xiàn)了從命令驅(qū)動到意圖驅(qū)動的轉(zhuǎn)換。ChatGPT在與用戶交流的過程中,用戶無需輸入繁瑣的要求和指令,僅需用日常語言輸入簡單的想法,ChatGPT即可“心領(lǐng)神會”,完成用戶所指定的任務。此種對用戶需求精準識別的能力能夠有效降低AI產(chǎn)品的使用門檻,但同時也加劇了AI異化為違法犯罪工具的風險。

  ChatGPT具有記憶性

  ChatGPT與當前人工智能相比另一個重要突破就是能夠記住與用戶交流的內(nèi)容,并具有在前期對話的基礎(chǔ)上與用戶進行持續(xù)交流的功能。使用者表示,ChatGPT能夠根據(jù)用戶的后續(xù)指令進一步修正自己先前輸出的答案,也能夠質(zhì)疑不正當?shù)奶釂。記憶性特征使ChatGPT的運用變得更加靈活多樣,用戶所獲得的答案并非一次性的,即使ChatGPT初次生成的內(nèi)容與用戶需求還存在一定的距離,用戶也無需親自進行人工修改,而是可以逐步引導其增加、刪減部分內(nèi)容。

  ChatGPT所涉知識產(chǎn)權(quán)風險的應對

  人類技術(shù)發(fā)展史表明,新技術(shù)一旦在人類社會廣泛應用,將不可避免地引發(fā)全新的法律風險。互聯(lián)網(wǎng)的普及引起了法學界對網(wǎng)絡(luò)暴力、通信信息詐騙、數(shù)據(jù)侵權(quán)、虛擬財產(chǎn)犯罪等風險的警惕與慎思,相應的,以ChatGPT為代表的通用性、高智能性、記憶性人工智能的廣泛應用,也會對既有法律體系與法學理論提出全新的挑戰(zhàn)。作為文本生成式AI,目前ChatGPT尚不具有生成圖像、音視頻以及聯(lián)通多用戶交流的能力,因此其被利用成為智能化犯罪工具的可能性尚處于較低水平,現(xiàn)階段ChatGPT在法學領(lǐng)域引起的沖擊更多地集中于知識產(chǎn)權(quán)領(lǐng)域,包含在數(shù)據(jù)源獲取與內(nèi)容生成兩個運行階段之中。

  在數(shù)據(jù)源獲取階段,人工智能對數(shù)據(jù)集的使用可能涉及對原始作品權(quán)利人的侵權(quán)風險。在內(nèi)容生成階段,ChatGPT將進一步引起人們對AI主體地位、AI生成物法律權(quán)屬問題的反思。

  ChatGPT在數(shù)據(jù)源獲取階段的侵權(quán)風險

  算法、算力、數(shù)據(jù)是人工智能開發(fā)的三大要素。ChatGPT的通用性、高智能性、記憶性除基于其特殊的訓練方法外,更源于其所擁有的海量數(shù)據(jù)集。據(jù)統(tǒng)計,ChatGPT背后所擁有的參數(shù)高達1750億個,遠超現(xiàn)有的其他生成式AI。根據(jù)國外人工智能學者Alan D.Thompson的研究,ChatGPT的數(shù)據(jù)源包含維基百科、書籍、期刊、Reddit鏈接、Common Crawl等。ChatGPT是通過學習互聯(lián)網(wǎng)上的現(xiàn)有數(shù)據(jù),并在此基礎(chǔ)上加工整理形成答案的,而社交網(wǎng)站、書籍、網(wǎng)頁數(shù)據(jù)無不包含著大量原始創(chuàng)作者的作品,這一過程并未經(jīng)過版權(quán)人許可,可能構(gòu)成對原始作品權(quán)利人的侵權(quán)。

  這一問題在實踐中已經(jīng)出現(xiàn),在Andersen et al v Stability案中,以Andersen為代表的3位藝術(shù)家對一款AI繪圖工具提起集體訴訟,認為AI公司在未經(jīng)許可的情況下將多位藝術(shù)家所創(chuàng)作的50億張網(wǎng)絡(luò)圖片用于AI機器學習,其行為侵犯了藝術(shù)家們的權(quán)利。與此相近的是,意大利個人數(shù)據(jù)保護局取締了一款名為“Replika”的人工智能聊天機器人,認為其非法收集、使用原始數(shù)據(jù)。該案雖然并非知識產(chǎn)權(quán)侵權(quán),但也同樣表明目前AI抓取、使用數(shù)據(jù)可能侵犯原始數(shù)據(jù)源之上的各種權(quán)利。

  對于數(shù)據(jù)源獲取階段的知識產(chǎn)權(quán)侵權(quán)風險,筆者認為,在解釋論上應適度擴張合理使用制度的范圍,以使其能夠適用于AI抓取公開數(shù)據(jù)的情形。

  其一,數(shù)據(jù)抓取、分析是開發(fā)人工智能程序的必要條件,未來強人工智能的進一步發(fā)展更需要海量的數(shù)據(jù)源支撐。相關(guān)研究表明,人工智能大模型的訓練至少需要62億的參數(shù)量。此時要求開發(fā)者獲取全部產(chǎn)權(quán)人的許可并不現(xiàn)實,知識產(chǎn)權(quán)法領(lǐng)域若不能弱化該風險,將阻礙人工智能的技術(shù)創(chuàng)新。

  其二,AI開發(fā)者利用數(shù)據(jù)集的行為具有合理使用的外觀。AI及其開發(fā)者使用數(shù)據(jù)集的行為包含復制導入數(shù)據(jù)和AI學習分析數(shù)據(jù)兩個過程,而知識產(chǎn)權(quán)法之所以對復制行為進行規(guī)制,是因為在傳統(tǒng)的出版領(lǐng)域復制與發(fā)行具有密切相關(guān)性,控制復制行為能夠有效阻止其后的發(fā)行行為。而現(xiàn)代計算機技術(shù)的出現(xiàn)使復制行為和傳播行為發(fā)生分離,單純復制行為的規(guī)制必要性大大降低,多數(shù)個人復制行為都被納入合理使用制度的框架,互聯(lián)網(wǎng)傳播行為成為法律規(guī)制的重點。而人工智能對數(shù)據(jù)源的使用恰恰具有單純復制行為的特征,開發(fā)者所使用的數(shù)據(jù)源都是從互聯(lián)網(wǎng)上已公開的內(nèi)容中抓取的,其獲取行為不具有非法性,而且開發(fā)者利用數(shù)據(jù)訓練人工智能,AI生成物在多數(shù)情況下不會復現(xiàn)原作品的內(nèi)容。

  ChatGPT在內(nèi)容生成階段的權(quán)屬爭議風險

  如前所述,ChatGPT具有通用性、智能性及強大的人類模仿能力,這使得其生成物具有與以往人工智能生成物相比更高的價值。而且ChatGPT已經(jīng)在社會層面得以普及,除部分IP受限制的國家和地區(qū)外,普通民眾也能直接注冊、使用ChatGPT。上述兩點使AI生成物的權(quán)屬問題更實際地擺在了知識產(chǎn)權(quán)法理論面前,如果說之前法學界對AI生成物權(quán)屬的探討是前瞻性的,那么現(xiàn)在的探討無疑具有現(xiàn)實性。

  現(xiàn)有司法實踐對AI生成物權(quán)屬的判斷主要包含以下3個層面。一是從作品的角度入手,探討AI生成物是否符合著作權(quán)法理論中作品的含義。二是從創(chuàng)作行為的角度入手,探討AI的創(chuàng)作過程是否具有“獨創(chuàng)性”。三是根據(jù)智力成果的投入,確定作品應歸屬于開發(fā)者還是用戶。持肯定態(tài)度的觀點認為,AI生成物在外觀上具有獨創(chuàng)性,并且能夠體現(xiàn)創(chuàng)造者的個性化選擇、技巧、判斷等因素。持否定態(tài)度的觀點強調(diào)作品必須是人的智力成果,創(chuàng)作行為也必須是人的智力活動,AI生成物缺乏人的智力參與,沒有傳遞軟件使用者的思想,不能被認定為作品。

  事實上,從“獨創(chuàng)性”“作品”角度探討人工智能生成物的權(quán)利歸屬問題不具有現(xiàn)實意義,因為AI生成物和人類作品的核心差異并不在于作品外觀上是否具有獨創(chuàng)性特征,而在于是否由人所完成。正如華東政法大學王遷教授所言,“只有當源自人類的相同內(nèi)容屬于作品時,才有必要討論由人工智能生成的內(nèi)容能否被認定為作品。”AI生成物的權(quán)屬問題在根本上要解決的是AI所輸出的內(nèi)容是否具有賦予其法律保護的必要性,或者說,AI生成物如果不受法律保護而成為人人可隨意使用的內(nèi)容,是否會導致學術(shù)不端、抄襲泛濫?

  筆者認為,在現(xiàn)階段有必要對AI生成物進行法律保護。一是因為當前AI生成物已經(jīng)超出了對既有材料簡單復制、加工、改寫的階段,ChatGPT的高智能使其能夠輸出自身的觀點,并且很難在互聯(lián)網(wǎng)上檢索到與輸出文本相似的內(nèi)容,換言之,ChatGPT將AI生成物的獨創(chuàng)性推到了一個前所未有的高度。二是由于AI生成物的隨意使用可能誘發(fā)學術(shù)不端。因此,在以ChatGPT為代表的具有一定程度獨立意識的高智能AI出現(xiàn)后,法律有必要對其生成物進行保護,以最大可能防止AI在學術(shù)科研中的濫用。

  需要明確的是,對AI生成物進行法律保護并不意味著需要承認人工智能的權(quán)利主體地位。而應當采用行為規(guī)制的方法,從限制用戶對AI生成物的使用范圍出發(fā),一方面利用行業(yè)自治規(guī)則等軟法要求使用者在作品創(chuàng)作中明確披露其對AI的使用情況,在排除AI生成內(nèi)容后對作品的創(chuàng)新性、實用性進行重新評估,根據(jù)作者自身創(chuàng)作的部分來判斷作品質(zhì)量。另一方面也要強化技術(shù)治理的作用,加大反AI檢測技術(shù)的運用,提升人類對AI作品的識別能力,積極利用技術(shù)手段監(jiān)管、反制技術(shù)所引起的風險。

  *本文刊載于《通信世界》總第916期 2023年3月25日 第6期原文標題:《人工智能聊天機器人的知識產(chǎn)權(quán)風險及應對以ChatGPT為切入點》

【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關(guān)。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

相關(guān)閱讀:

專題

CTI論壇會員企業(yè)