議題觀點
潛藏在生成式AI的法律風險
德勤商務法律事務所法律科技創新服務 / 熊誦梅合夥律師
企業法務在生成式AI審查中扮演的角色
隨著生成式AI(Generative AI)的興起,許多企業開始引入此種技術以輔助辦公,期待能夠減少人力成本並提升產出品質。當然,企業中的法律專業人士也開始關注潛在的相關法律風險。在審查生成式AI創作的內容的合法性時,法務主管扮演著至關重要的角色,並為企業中的各大部門提供實用的建議與準則。為此,深入瞭解生成式AI的運作方式以及該等技術可能創造的風險,對於企業的合法運作而言,實屬必要。
潛藏在生成式AI的著作權疑慮
這種具有創作功能的技術,在「智慧財產權」議題上掀起了不小的風波,其中又以「著作權」爭議最為普遍。在生成式AI普及後的短短數個月內,相關的著作權訴訟便已在世界各地如雨後春筍般爆發。
由於生成式AI通常需要以大量數據進行訓練(即「輸入」;input),包括文字、圖片、聲音及影片等,而「使用他人創作之作品以訓練AI模型」這個行為,是否侵害了該等作品的著作權,在各個司法管轄區的法律規範中,又會有著一定程度差異的評價——諸如美國的「公平使用」概念,以及歐盟對於「短暫而偶發的文本重製及數據挖掘」之容許等——因此,訓練生成式AI時應如何避免侵害創作者(數據來源)的著作權,將是一項艱難的挑戰。
此外,生成式AI所創作(即「輸出」;output)的內容為著作權法保護之客體,以及誰才是享有該等著作權之主體,也是一個尚待解決的法律爭議。在美國及歐盟,都因非常強調「人類精神性之介入」而否定了由生成式AI獨立完成的作品受著作權法保護的可能,而臺灣的AI創作究竟有無著作權,又應如何認定其歸屬,則尚待司法機關論述並形成穩定見解。
不同立場間的角力與衝突已經逐漸浮上檯面。2023年底,在一連串的談判磋商未能達成共識後,紐約時報正式向OpenAI(ChatGPT供應商)與微軟(Bing供應商)提起訴訟。前者指控後者免費濫用其注入鉅額投資累積的成果,ChatGPT與Bing生成的許多內容幾乎一字不差地挪用了紐約時報的創作;另外,由於生成式AI的機率性與創作性,部分內容遭到不適當地改寫、轉述,將導致使用者誤以為紐約時報提供了不正確的資訊。
除了文本(text)生成之外,圖像(image)生成亦為近來極其熱門的應用之一。無獨有偶,全球最大的圖庫公司Getty Images也與領先市場的圖像生成公司Stability AI發生了爭執——前者發現後者生成的圖像中,竟有與其「gettyimages」商標(亦作防盜版浮水印之用)極其相似之浮水印,不僅直接地侵害了Getty Images的商標權,更間接地揭示了Stability AI在未經合法授權的情況下,擅自利用其圖庫訓練自己的AI模型(否則,殊難想像AI會把第三方的浮水印「算」進生成的圖像中)。
這二樁訴訟不僅意味著傳統媒體人與AI機器人之間的著作權戰爭已經揭開序幕,更是敲響了「內容創作者」與「AI供應商」之間利益衝突的警鐘。究竟事態會如何發展,人類與AI的競合關係將走向何方,仍有待這些象徵性案件接下來的發展,為我們提供更確切的答案。
個人資料的合法使用與機密資訊的保護
除了著作權爭議以外,亦有「個資保護」的疑慮潛藏在生成式AI的創作之中。生成式AI的訓練過程,可能會用到較為敏感、機密的個人資料,而根據該等資料訓練出來的模型,在創作(輸出)的時候也可能會把這些資料呈現於最終成果,導致該等資料的意外流出。因此,無論企業在產業中扮演的角色是「生成式AI模型的供應商」還是「生成式AI模型的使用者」,均必須留意其中的法律風險及保密義務等。
此外,企業自身的商業規劃、營業秘密及財務狀況等,亦有可能在使用生成式AI時,成為訓練素材的一部分。如果沒有良好的資訊管理措施,可能會使公司自身的機密資料在被生成式AI挪用,甚至間接成為競爭對手的武器;因此,建構完善的資料篩選及保護措施,對於任何企業而言均極其重要。
與生成式AI供應商簽約時的提醒
作為生成式AI「使用者」的企業,在與生成式AI「供應商」簽約時,應該考慮到以下幾點——
- 侵害第三人智慧財產權的風險:不僅須考量供應商在訓練生成式AI模型時是否侵害了第三人的著作權,更應該審慎評估該模型創作的成果是否有侵害第三人著作權的風險。
- 個人(機敏)資訊的保護:供應商是否確實遵守個人資料與機密資訊的保護義務?AI作品是否會有侵害個人隱私的疑慮?
- 供應商的損害賠償能力及保險項目:(尤其是在供應商為小型機構時),須注意供應商的損害賠償能力及保險的涵蓋範圍是否足以承擔對第三人的責任;
- 國際性法律遵循:在不同的司法管轄區下,哪些行為會構成著作權的侵害?哪些行為還在合理使用的範疇之內?
- 合約條款與時俱進的調整彈性:隨著技術的發展及應用的普及,監管規範亦將趨於完備,供應商與使用者間簽訂的契約應足以在此等變遷過程中適應新的監管及限制,否則會有許多程序上的成本費用。
政府機關使用生成式AI的準則
值得注意的是,歐盟近期就AI法案(AI Act;AIA)之內容達成了暫時性的政治協議,是全球的主要經濟體中,第一個全面且具法律拘束力的跨行業、跨地域人工智慧框架,預計於2024年上半年完成立法程序。
歐盟的AIA以「對個人之基本權利、健康或安全造成之風險」為基準,將市面上的AI評價為創造「無法接受之風險」、「高風險」或「有限/無風險」三類。其中,造成無法接受之風險者,將會被禁止提供,造成高風險者,只能在滿足許多嚴苛條件的前提下提供,造成有限/無風險者,則可以無條件地提供。此外,AIA又以用途之廣泛程度,劃分「單一用途AI」與「通用用途AI」(GPAI),並且對於後者有著更嚴格的要求(如提升透明度、外部審計及基本權影響評估等)。
隨著國際間AI監管的浪潮,行政院參考國科會之建議,於2023下半年發布了「行政院及所屬機關(構)使用生成式AI參考指引」,內容強調「提升效率」與「資訊安全」之平衡兼顧,要求各機關必須落實「由承辦人為終局之判斷」、「禁止以生成式AI製作機密文書」、「不得向生成式AI提供應保密之資訊」及「適當揭露以生成式AI製作之內容」等。此外,司法院亦開始實驗將生成式AI導入「不能安全駕駛罪」與「幫助詐欺罪」二種訴訟書狀之撰寫,協助法官擬定裁判草稿,並且提供量刑建議等,並且在民間機構的呼籲之下,亦著手研擬「司法院使用生成式AI參考指引」以確保相關資訊之控制,極力降低國家安全、資訊安全、人權、隱私、倫理及法律等風險。另一方面,行政院亦將召開數位政策法制平台跨部會議,委由國科會協助擬定「人工智慧基本法」之草案,期望能為人類與AI的競合關係劃定一個妥適的遊戲規則,以期人機得以共創繁榮之未來。不可諱言的,AI將為人類的生活帶來巨大的改變,相關法律問題也會一一浮現,且讓我們拭目以待!