◎賴文智律師
本篇文章是由筆者參與《新聞真假掰》(台灣事實查核中心主持人黃兆徽女士專訪)的節目內容(https://www.youtube.com/watch?v=vFRPqU63XZo),透過NotebookLM的心智圖功能,再轉化成文字的形式。如果NotebookLM是學生的話,真的會有得英才而教之的感受。以下提供NotebookLM理解節目的內容,筆者稍做易讀性的整理後,分享給網友們。
摘要:本訪談深入探討 AI 與著作權法規之間的複雜關係。訪談釐清了 AI 生成物若缺乏人類精神創作則不具著作權,並分析了 LLM 模型利用現有文本訓練時,如何判定「合理使用」與「轉化性利用」。賴律師針對新聞媒體內容被 AI 摘要而導致點閱下滑的困境,提出了使用者付費或集體授權機制等補償思考。此外,訪談中也討論了音樂創作、人聲模仿及肖像權在 AI 時代面臨的新型法律挑戰。最後,賴律師鼓勵大眾在 AI 仍有瑕疵時積極使用,藉此建立正確的科技識讀能力並維持獨立思考。
一、AI生成物之著作權歸屬
賴律師強調在探討「AI 生成物之著作權歸屬(誰是作者)」之前,最核心的前提是必須先釐清「AI 生成物到底算不算是一個著作」。著作權法保護的是「人類精神創作活動的成果」。因此,對於 AI 生成物是否受保護以及歸屬權,主要取決於人類在其中投入的創作比例:
- AI 作為純粹的生成者:如果使用者只是直接下達簡單的指令(例如請 AI 生成一張圖片),由於其中並沒有包含使用者實質的「精神創作」,這類生成物就不受著作權保護,自然也不需要去討論作者歸屬或著作權是誰的問題。目前法律並未承認 AI 具有人格主體,因此不會將 AI 本身視為作者。
- AI 作為輔助工具:若使用者是將 AI 當作輔助工具,並在過程中投入了大量自己的精神創作與智慧(例如反覆修改、給予極具深度的引導或將自己的原創文稿交由 AI 處理),那麼創作的主體依然是人,該生成物就有機會受到著作權保護。
在衍伸應用與商業授權的層面上,賴律師還提出了以下幾個關鍵視角:
- 衍生著作的保護來自於「原始著作」: 如果使用者將自己寫的書丟給 AI 生成 Podcast 或影片,這個過程中並不會產生一個全新的「視聽著作」的著作權;其受保護的原因與權利來源,依然是使用者最初寫的那本「原創書」。反之,如果網友拿別人的原創書去用 AI 生成影片賺錢,侵犯的其實是原作者對「那本書」的著作權,而不是探討 AI 產出物本身的著作權歸屬。
- 「合約條款」不等於「著作權」: 許多人誤以為使用免費版 AI 軟體(如音樂生成工具 Suno)就沒有著作權,付費版才有。賴律師澄清,作品是否受著作權保護是依據「法律」看人類的實質精神投入,與「有沒有付費」毫無關聯。平台限制免費版不能做商業使用,純粹是「契約」上的限制,目的是為了吸引使用者付費,並非影響著作權的有無。
關於 AI 生成物的討論,其實只是當前巨大 AI 法律戰的冰山一角。賴律師點出,目前的爭議還廣泛牽涉到「AI 訓練資料的合法性」與「替代效應」:
- 合理使用與轉化性使用(Transformative Use): AI 模型在「預訓練」階段大量吸收受著作權保護的文本(如金庸小說、新聞報導)來學習人類語法結構,因使用目的已經從「供人欣賞」轉化為「數據解構與關聯性分析」,這完全改變了作品原本的用途,因此目前法界較傾向視為「合理使用」。然而,如果在「後訓練(Fine-tuning)」階段,是刻意去模仿特定作者或圖庫的風格,並產生商業價值,則不屬於此限,應當要允許權利人主張授權機制。
- 對新聞媒體與資訊產業的衝擊: 像是 Perplexity 等 AI 搜尋與摘要工具,直接給出重點解答,導致新聞網站流量雪崩式下滑,引發了包含紐約時報等媒體控告 AI 公司的訴訟。賴律師認為這項爭議不能單純用著作權來解決,而需要考量民主政治運作基礎與產業存續,未來可能需透過政府介入、使用者付費或要求 AI 業者代收分潤等機制,來給予內容產製者合理的補償。
- 聲音與肖像的擬真生成: 針對 AI 生成張雨生、劉德華等名人的聲音或影像,賴律師指出這類科技應用往往已經超越了傳統著作權的範疇。因為名人的聲音與形象具有高度商業價值與辨識度,容易引發誤導與政治操弄,未來可能必須透過「肖像權」保護或《公平交易法》中的「不公平競爭」等更廣泛的法律框架來加以規範。
最後,面對 AI 生成物著作權界線越來越模糊的未來,賴律師建議創作者在與 AI 協作時,應盡量保存與 AI 互動、修改的對話紀錄。當面臨侵權疑慮或需要證明「誰是作者」時,這些紀錄將是向法官證明「自己投入了哪些人類智慧與精神創作」、以爭取著作權保護的關鍵證據。
二、AI模型訓練法律爭議
針對「AI 模型訓練」的法律爭議,賴律師強調必須將資料用於AI模型訓練的過程「細緻化」拆分來看,不能一概而論,而其核心的法律評判標準在於「合理使用」的各款基準,尤其是美國判決中經常提及的「轉化性使用」(Transformative Use)。
賴律師深入探討了以下幾個面向的訓練爭議與解方:
1. 預訓練(Pre-training)與後訓練(Fine-tuning)的法律界線
預訓練階段傾向「合理使用」: AI 語言模型在早期預訓練時,會吸收海量文本(例如同時吸收一般文章與金庸的武俠小說)。AI 吸收這些內容的目的是為了將文字「解構」,學習人類寫作的語法結構與字詞前後的關聯性。這與人類閱讀原著是為了「欣賞角色與情節」的原始用途完全不同。因為使用目的發生了根本性的轉變,這在法律上屬於典型的「轉化性使用」,未來法界與法院極有可能為了妥協科技發展,將此階段視為合法的「合理使用」。
後訓練階段必須建立「授權機制」: 然而,如果 AI 在後續的微調訓練中,是刻意針對特定作者、圖庫或媒體(如紐約時報)的風格進行訓練,藉此打造出特定風格的生成機器人並產生商業價值,此時「轉化性」就帶有明顯的商業剝奪性質。在這種情況下,就不應再以合理使用作為擋箭牌,法律應當允許權利人主張權利,並要求 AI 公司透過商業授權機制付費。
2. 不同資料載體的法律風險差異
雖然文字型 AI 的訓練相對容易主張合理使用,但音樂與影音的 AI 訓練在法律上將面臨更嚴峻且困難的挑戰。因為音樂或影音的訓練資料來源往往極度具體且特定,其個別著作的價值不像海量文字那樣容易被稀釋,因此要主張合理使用會顯得更為尷尬與牽強。
3. 訴訟實務的關鍵:大企業對決與盜版爭議
- 大型商業訴訟才具備指標意義:目前個人創作者控告大型 AI 公司往往因舉證不全而難以勝訴。真正能定義未來 AI 法律框架的,是大型商業機構(如《紐約時報》或大型圖庫公司)提起的訴訟,因為他們具備足夠的資本與資源,能在法庭上進行深度的證據開示與複雜的法律攻防。
- 盜版資料是 AI 公司的致命傷:即使 AI 訓練能主張轉化性使用,但「訓練資料的來源」若明顯是盜版、侵權內容,例如,被查出 AI 是透過盜版網站下載大量書籍來訓練,其合理使用的立論基礎可能就會完全崩潰,往往只能走向和解。不過,要透過訴訟回溯證明開發多年的 AI 當初究竟用了哪些特定資料,在技術舉證上依然非常困難。
4. 超越著作權的產業危機:對新聞媒體的衝擊
在更大的社會脈絡下,AI 訓練所引發的爭議已超越單純的著作權問題。例如 Perplexity 等 AI 工具,不採取傳統 Google 提供連結的做法,而是直接抓取資料並透過 AI 解讀、生成最終答案給使用者。這直接解決了使用者的痛點,但也導致新聞媒體網站的點閱流量面臨「懸崖式下滑」,嚴重威脅其生存。
主持人與賴律師在對談中指出,這類問題不能僅靠「著作權法」來解決,因為著作權法的視角並未考量到產業存續與民主政治的運作基礎(新聞媒體作為監督政府的第四權)。為了維持社會的良性發展,未來必須跳脫傳統著作權保護框架,探討更多元的解方,例如:由政府或民間牽頭建立「集體授權與徵收補償機制」的語料庫,或是由 AI 業者向使用者加收一筆費用,藉由「代收分潤」的模式將資金回饋給產出優質內容的媒體與創作者。
三、新聞媒體與AI衝突
主持人提及AI 搜尋與摘要工具(例如 Perplexity)的崛起,不僅切中了現代人不想花時間過濾大量資訊的痛點,也引發了新聞網站點閱率「懸崖式下滑」的生存危機。新聞媒體耗費鉅大的人力與資金在第一線產製即時、正確的內容,但 AI 公司卻無償拿走這些心血,轉化為自身高利潤的付費服務,這對媒體而言產生了極大的不公平與剝奪感。
面對這場衝突,賴律師提出了幾個關鍵的法律與產業視角:
1. 著作權法已不足以解決這場「民主危機」
主持人提及過去 Google 搜尋引擎提供標題連結的做法,在法律上被認定為「合理使用」,因為它最終還是將流量導回原網站。然而,現在的 AI 是直接把網路資料「消化解讀」後吐出完整答案,導致使用者根本不再點擊來源。
賴律師則提到,不能單純依賴「著作權法」來處理這個議題。因為著作權法的出發點是衡量大眾利益與個人權利,並未考量產業存續的問題;如果純用著作權的視角,法庭可能依然會妥協於科技發展的便利性。然而,一旦放任新聞產業被摧毀,將直接連根拔起民主政治中「第四權(監督政府)」的運作基礎,這是一個超越著作權的嚴峻社會問題。
2. 推動「代收分潤」的商業補償機制
既然 AI 確實解決了使用者快速獲取資訊的需求,一味防堵或抵制並非長遠之計。賴律師建議可以從「使用者付費」的角度切入:由於使用者閱讀的 AI 摘要背後可能牽涉上百家媒體,難以逐一付費,因此應由 AI 業者(如 OpenAI、Google)扮演「代收」角色。例如在原本的 AI 訂閱費之上,額外向使用者加收一筆費用,並將這筆資金作為徵收補償,分潤給產出內容的新聞媒體。
3. 建立「集體授權」,捍衛國家數位主權
大型 AI 科技公司其實願意花錢解決著作權爭議,但他們不可能耗費巨大時間成本去跟台灣成百上千家的小型媒體「一對一談判」。賴律師建議,台灣可考慮由政府或民間機構出面統合,建立「集體授權機制的語料庫」,統一與跨國 AI 巨頭協商授權與補償。如果不這麼做,AI 公司可能會嫌麻煩而乾脆放棄使用「繁體中文」語料進行訓練,這將對台灣的「國家數位主權」造成嚴重打擊。
4. 媒體需認清「受眾習慣改變」的現實
除了爭取合理補償,新聞媒體也面臨著自我轉型的兩難。賴律師指出,即使單一媒體(如紐約時報)推出自己專屬的 AI 機器人,銷量也注定不會好,因為使用者追求的是「跨賴律師、多元廣泛的純粹資訊」,而非單一媒體的觀點或特定表達形式。因此,媒體在拒絕與 AI 合作(恐被邊緣化)與同意合作(恐拿不到分潤)的夾縫中,必須重新思考並正視受眾獲取資訊習慣已經改變的現實。
四、人格權議題
談訪中提及AI 科技不僅挑戰了傳統著作財產權的界線,更將戰場延伸至「人格權」(如聲音、肖像)。賴律師指出,AI 完美複製與生成人類特徵的能力,帶來了過去法律未曾處理過的新難題,尤其是在聲音權利的界定、名人的商業價值保障,以及已故名人的權利延續上。
以下是賴律師針對 AI 人格權爭議提出的幾個核心看法:
1. 「聲音」保護的法律模糊地帶與實務難題
賴律師指出,相較於法律明文規範的「肖像權」,「聲音」在民法中並沒有被明確列為特別的人格權,這使得聲音的保護變得相對尷尬與複雜。這在實務認定上充滿了挑戰:例如,一個男生在變聲期前後的聲音不同,究竟哪一個時期的聲音受保護?又或者專業配音員(如八音才子或多啦A夢的配音員)一人能演繹多種角色的聲音,受保護的究竟是他本人的真實聲音,還是他所創造的「角色聲音」?此外,過去人類在綜藝節目上模仿張雨生唱歌,社會大眾習以為常;但現今當「機器」能完美且輕易地分毫不差模仿人類聲音時,卻引發了強烈的恐懼與爭議。
2. 名人的高商業價值與政治操弄風險
針對聲音等特徵的保護,賴律師認為必須考量其背後的影響力。名人或政治人物的聲音具有極高的商業價值與辨識度,若遭 AI 濫用(如 Deepfake 偽造語音),極易引發誤導大眾或政治操弄的巨大風險,因此未來勢必需要透過相關的 AI 法規給予特別保護。然而,若過度擴張保護至缺乏辨識度的一般大眾,反而可能會衍生出「你的聲音抄襲我的聲音」這類濫訴,為了避免創造出新的社會問題,法律的制定必須非常謹慎。
3. 已故名人的權利主張需仰賴「合約機制」
當 AI 應用涉及已故名人(例如用 AI 生成約翰藍儂的歌聲)時,傳統的人格權便無法直接適用,因為在法律上「人死後就沒有人格權了」。實務上,為了取得背書或避免爭議,往往必須轉向與名人的遺孀或家屬進行合約談判,使得這個議題演變成混合了法規與商業契約的複雜狀態。
4. 肖像權爭議可透過《公平交易法》突圍
除了聲音,AI 也能輕易生成極度逼真的名人影像。若有廣告商使用 AI 生成激似劉德華或張曼玉的影片來代言商品,即便侵權者試圖以「只是長得像而已」來規避傳統的肖像權規範,法律上依然有解方。賴律師建議,面對這類具備龐大商業價值且會讓消費者誤以為是真人代言的 AI 影像,法界可以跳脫單純的人格權框架,改以《公平交易法》中的「不公平競爭」條款來處理,以有效制裁這種掠奪他人商業價值的侵權行為。
五、對使用者的建議
面對充滿不確定性的 AI 法律與著作權爭議,賴律師針對一般使用者與創作者,提出了以下幾個深具戰略意義的實務建議:
1. 務必「保存與 AI 協作的完整紀錄」以自保
由於 AI 生成物本身不受著作權保護,未來的法律審查核心將會聚焦在「釐清生成物中究竟有多少比例屬於人類智慧」。因此,賴律師強烈建議創作者在與 AI 協作時,應妥善留存與 AI 互動、下達指令以及後續反覆修改的對話與工作紀錄。當面臨侵權疑慮或需要向法官證明自己是「作者」時,這些紀錄將是證明你確實投入了精神創作活動、爭取著作權保護的關鍵證據。
2. 破除「付費版等於無敵」的法律盲區,商業使用需「自負責任」
- 著作權保護與付費無關:許多使用者誤以為「免費版沒有著作權,付費版才有」,或認為只要付費訂閱 AI 服務,拿去商業使用就絕對安全。賴律師對此提出了嚴正的觀念釐清:是否取得著作權保護與付費無關。作品有沒有著作權,看的是「人類有沒有投入精神創作」,與你有沒有付費給 AI 公司毫無關聯。付費只是解除了平台在「契約」上對你的商業使用限制,並不會讓原本不受保護的 AI 生成物突然擁有合法著作權。
- 侵權風險仍須自負:多數 AI 平台(如 Suno 等)並不會擔保其生成的內容絕對沒有抄襲別人。平台雖然不跟你主張權利,但如果生成出來的音樂或影像侵犯了外部原創者的權利,使用者將生成物拿去商業化賺錢,就必須自行承擔被原權利人控告的法律風險。
- 高風險規避策略:如果使用者非常害怕捲入侵權訴訟,賴律師建議可以選擇像 Adobe 等標榜「完全使用自家合法授權圖庫」來訓練的 AI 服務。這類平台提供了不侵權的擔保,創造了一個相對安全的商業使用空間。
3. 趁 AI「還會犯錯時」盡快熟悉,避免喪失人類主體性
面對 AI 工具的快速迭代,賴律師提出了一個反直覺的強烈建議:「趁著現在 AI 還有瑕疵、還會犯錯的時候,趕快去使用它」。
- 建立「AI 識讀」能力:提早使用能讓你在 AI 依然會出錯的階段,透過不斷碰撞來摸透它的運作邏輯與極限,將這種防錯與判斷的技巧內化成類似「媒體識讀」的能力。
- 防止過度依賴與價值喪失: 如果等到未來 AI 發展到完美無瑕、極其好用的階段才開始依賴它,使用者將完全「無感」於 AI 對思維的控制,很容易陷入過度依賴的陷阱,甚至不自覺地把機器生成的想法當成自己的想法。只有趁現在建立穩固的自我認知,並看清人類與機器之間的區隔,才能在未來 AI 強大時,持續彰顯人類無可取代的核心價值,避免在科技浪潮中迷失或出事。