◎賴文智律師

隨著ChatGPT於2022年底問世,生成式人工智慧(Generative AI)迅速滲透至高等教育場域,並對數位教材的產製方式帶來結構性變革。對於大學教職員而言,AI已不僅是提升效率的文書工具,而逐漸成為教材設計、內容生成與知識重組的重要基礎設施。傳統以「構思、搜尋、整理、編製」為核心的教材製作流程,正轉向以「提示、搜尋生成、查核、編修」為主軸的新型工作模式。
生成式AI的技術與應用日新月異,教職員在應用生成式AI製作數位教材時,往往面臨諸如「生成內容正確性」、「輸入資料被用於生成式AI訓練之用」、「輸入他人著作是否侵權」、「生成內容是否受著作權保護」、「生成內容是否會侵害他人著作權」、「作為教材或教學使用是否構成合理使用」等關鍵問題。本文即以此為出發點,系統性分析生成式 AI 與著作權法之間的規範張力,並結合 2026 年施行之《人工智慧基本法》所揭櫫之原則,提出具體可行之教學實務指引,以協助讀者在創新應用與法規遵循之間取得平衡。
一、LLM技術對著作權法產生的衝擊
(一)關聯性而非邏輯
以大型語言模型(Large Language Model, LLM)為例,其係建立於類神經網絡架構之上,其運作核心並非傳統意義上的邏輯推理,而是透過對大量語料進行訓練(將文本中的字詞轉換為Token,再轉換為向量值,並將該等相對關係轉換為模型參數),以學習大量訓練語料所呈現Token之間「統計關聯性」。換言之,LLM並不真正「理解」其訓練資料或生成內容「本身」所代表的意義,而是根據既有大量語料中詞彙與語句出現的機率分布,預測在特定語境下最可能出現的後續表達。
由著作權法角度觀察,首先,LLM並不以可識別之形式儲存個別訓練資料(著作或非著作),其內部權重(weights)係經抽象化處理後的數值參數,而非具體文本內容。其次,LLM在依據使用者提示詞生成內容過程,其基礎在於非確定性演算法(Nondeterministic Algorithm),跟傳統比較容易理解的邏輯演算不同,即相同提示在不同時間或不同設定下,可能產生不同結果。然而,正因為其係基於既有大量訓練資料所形成的統計關聯,LLM在特定情境下確實可能產出與既有作品相似甚至高度近似之內容,但亦不代表該等內容必然曾經作為訓練資料。
(二)思想與表達二分法的挑戰
著作權法僅保護具體的表達,不保護抽象的思想(著作權法第10條之1),此一原則長期作為界定著作權保護範圍之核心標準,亦為維持創作自由與知識流通的重要制度基礎。然而,在生成式AI的應用情境下,此一傳統區分正面臨前所未有的挑戰。使用者透過提示詞(prompt)引導AI生成內容,該等提示詞內容通常被理解為對創作方向、風格或主題之設定,性質上較接近「思想」;而生成式AI所生成之具體文字、圖像或其他內容,則為可感知之「表達」。
然而,隨著生成式AI服務不斷校準,使用者透過提示詞工程(prompt engineering),以多輪次的上下文逐步以精細的提示詞,引導生成式AI產出符合使用者腦中「模糊」的預期成果,也就是說,使用者並非直接從事創作,而是不斷地把不符合想像的創作成果排除,多輪次地提示對話的方式,擇定比較符合自己想像的創作成果。這種情形思想與表達之界線不再清晰,而呈現出連續光譜、漸變的狀態。
二、生成式AI對於著作權法領域可能的影響
(一)著作是否受著作權法保護的判斷日益困難
在傳統著作權法架構下,著作是否受保護,通常可透過相對明確的標準加以判斷。一般而言,只要作品係由人類完成,並具備一定程度之原創性(originality),即足以構成著作,並受著作權法保護。此一判斷模式,建立在一個隱含前提之上:即創作行為與創作成果之間,存在可辨識且相對穩定的對應關係。然而,生成式人工智慧的出現,打破了上述前提。
在生成式 AI 的應用情境中,最終呈現之內容,往往並非由人類直接創作完成,而是透過模型運算生成;人類使用者所扮演的角色,則轉為透過提示詞(prompt)進行引導,並在多輪生成結果中進行選擇、調整與編修。換言之,創作過程已由「直接創作」轉變為「間接引導與篩選」。
此一轉變,使得著作權法上關於「創作性」與「人類創作」之判斷基礎產生動搖。具體而言,當作品係由 AI 所生成時,如何判斷其中是否包含足夠之「人類精神創作」,已不再如傳統情境般明確。特別是在使用者僅提供簡單提示詞的情況下,生成內容與人類創作之關聯性相對薄弱;反之,若經多輪提示、反覆修正與結構設計,則人類介入程度顯著提高,但其界線仍難以精確劃定。
因此,著作是否受保護之判斷,已由原本相對清晰的「是否具備原創性」,轉變為需進一步探討「人類在創作過程中之實質參與程度」。此種由「結果判斷」轉向「過程判斷」的變化,正是生成式 AI 對著作權法所帶來的核心挑戰之一。
此外,生成式 AI 亦可能在未有明確人類創作意圖的情況下,自動產出大量內容,進一步模糊「創作」與「生成」之界線。當內容產出成本大幅降低,且作品數量呈爆炸性成長時,傳統以「稀缺性」為基礎的著作權保護邏輯,亦面臨重新檢視之必要。
(二)未經授權被用於AI訓練趨勢難以遏止
生成式人工智慧之發展,高度依賴大規模資料之蒐集與訓練。從技術角度觀察,模型效能之提升,往往與訓練資料之數量與多樣性呈正相關。在此背景下,將各類公開可得之文本、圖像或其他資料納入訓練資料集,已成為主流發展模式。
然而,該等資料中相當部分可能涉及受著作權保護之內容,而未必均已取得權利人授權。由於資料蒐集過程通常具有高度自動化與規模化之特性,個別著作之來源與權利狀態,實務上難以逐一確認與處理,亦使全面取得授權在現實上面臨極高之交易成本與執行困難。
在此情形下,未經授權之資料被用於AI訓練,已逐漸成為一種結構性現象,而非個別違規行為。即使在法律上仍存有爭議,其在技術發展與產業競爭之驅動下,短期內亦難以完全遏止。
從制度面觀察,各國對此問題之回應,亦呈現出某種程度之調整趨勢。例如,有法制透過建立資料分析或文字探勘之例外規定,嘗試在促進技術發展與保障著作權人利益之間取得平衡;亦有制度透過強化透明度義務或資料來源揭露,回應權利人對於訓練資料使用之關切。
然而,無論採取何種立法模式,一項共通現象在於:法律規範之重心,逐漸由「是否允許資料使用」轉向「如何規範使用後之結果與影響」。換言之,相較於全面禁止未授權資料之使用,制度設計更傾向於透過事後責任與風險控管機制,回應生成式AI所帶來之影響。
在高等教育場域中,雖然個別教師並非AI模型之訓練者,但其在使用生成式AI工具時,仍不可避免地涉及上述資料利用結構。因此,與其假設所有輸入資料均已合法授權,不如從風險管理角度出發,理解AI系統之運作前提,並在後續使用階段妥善控管可能產生之著作權風險。
(三)大量AI生成內容難以確認原創來源
在傳統著作權法架構下,侵權判斷通常建立在兩項基礎之上:其一為「接觸可能性」(access),即被告是否有機會接觸原著;其二為「實質近似」(substantial similarity),即兩作品在表達上是否達到一定程度之相似。此一判斷模式,隱含一項重要前提,即作品之創作來源具有一定程度之可追溯性。然而,在生成式人工智慧之應用情境下,上述前提正逐漸動搖。
首先,生成式AI之訓練資料來源通常涵蓋龐大且多樣之語料,其具體內容與來源往往未對使用者揭露。當AI生成特定內容時,該內容可能係基於大量資料之統計關聯所形成之結果,而非源自單一可識別之原著。因此,即使生成內容與既有作品呈現高度相似,亦難以直接證明其係來自特定著作。
其次,在實際使用過程中,教師或其他使用者多係透過提示詞引導生成內容,而非直接接觸或參考特定原著。在此情形下,傳統「接觸可能性」之判斷標準,將面臨適用上的困難:使用者可能並未接觸原著,但其生成內容仍可能與原著產生高度相似。
此種「無接觸但高度相似」之現象,使侵權判斷之結構產生重大變化。具體而言,當來源難以追溯時,侵權判斷勢必更加依賴「實質近似」之判斷,而降低對於接觸要件之依賴程度。
此外,生成式AI亦使內容產出之速度與數量大幅提升。大量生成之教材、講義或圖像內容,可能在未經充分檢核之情況下被使用或公開,進一步增加與既有作品產生相似之機率。此種情形,將使「偶然相似」與「侵權複製」之界線更加模糊。
在此背景下,著作權法之適用,勢必由過去以「來源追溯」為核心之判斷模式,轉向以「結果相似性」與「整體觀感」為主之分析方式。此一轉變,不僅影響侵權判斷之標準,亦對使用者之風險控管提出更高要求。
(四)抄襲標準可能僅剩是否實質相似
綜合前述分析,在生成式人工智慧之應用情境下,著作權侵權判斷之結構正逐步發生轉變。傳統上,侵權之認定通常需同時考量「接觸可能性」與「實質近似」兩項要素,藉以推論是否存在抄襲行為。然而,當生成內容之來源難以追溯,且使用者未必實際接觸原著時,該等判斷架構將面臨調整。
具體而言,在「接觸可能性」難以證明或已失去實質意義之情況下,侵權判斷將更高度依賴於「實質近似」之分析。換言之,判斷重心將由過去對創作過程之推論,轉向對最終表達結果之比較。
此一轉變,意味著著作權侵權之認定,將更著重於作品整體觀感(overall impression)及表達內容之相似程度,而非單純依賴創作歷程或來源證明。當兩作品在結構安排、表達細節或整體風格上達到足以辨識之相似程度時,即可能構成侵權,即使無法證明具體之接觸行為。
此外,在生成式AI大量應用之背景下,內容之生成速度與數量顯著提升,亦將使相似內容之出現機率提高。在此情形下,如何區分「偶然相似」與「侵權使用」,將成為實務判斷中更具挑戰性之問題。
然而,此並不意味著所有相似內容均構成侵權。著作權法仍須在保障創作權益與維持創作自由之間取得平衡。因此,於判斷實質近似時,仍應考量表達之具體性、創作性程度以及是否屬於公共領域或常見表達方式,以避免過度擴張保護範圍。
對於大學教職員而言,此一發展所帶來的實務意涵在於:在使用生成式AI製作教材時,風險評估之重點,將由「是否曾接觸原著」,轉為「生成內容是否與既有作品過度相似」。因此,於教材發布前進行適當之內容檢視,將成為必要之風險控管措施。
(五)創作門檻降低挑戰著作權嚴格保護的必要性
生成式人工智慧的普及,已大幅降低內容創作之技術門檻與時間成本。過去需要投入大量時間與專業能力方能完成之文字、圖像或多媒體內容,如今透過簡單提示詞,即可在短時間內大量生成。此一變化,使「創作」由相對稀缺之活動,轉變為高度普及且可規模化之過程。
在此背景下,著作權制度所賴以建立之若干基礎前提,開始出現鬆動。傳統上,著作權法之強保護設計,部分係基於鼓勵創作與保障創作者投入之考量;然而,當創作成本顯著下降、產出數量急遽增加時,是否仍有必要維持相同強度之排他性權利,即成為值得重新檢視之問題。
具體而言,在生成式AI時代,可能出現以下幾項制度張力:其一,大量生成之內容是否均應受到完整之著作權保護,抑或應區分不同程度之人類創作投入;其二,若過度擴張著作權保護範圍,是否可能反而限制後續創作與知識流通;其三,在創作已非稀缺資源之情況下,著作權制度之功能,是否應由「鼓勵創作」轉向「維持合理使用與資訊流通之平衡」。
此外,生成式AI亦使「創作價值」之判斷產生變化。當內容生成變得容易時,真正具有價值者,可能不再是單一作品之產出,而是對內容之選擇、整合、詮釋與應用能力。此一轉變,亦與前述「人類精神創作原則」及「創作光譜理論」相互呼應,即著作權保護之重心,應逐步回歸於人類在創作過程中所展現之判斷與投入。
因此,在生成式AI的發展脈絡下,著作權制度或有必要進行適度調整,以避免在創作門檻降低之情境下,因過度保護而產生制度失衡。此並非否定著作權保護之必要性,而是強調應在促進創新、保障權利與維持知識流通之間,重新尋求合理之界線。
三、應用生成式AI製作數位教材的著作權議題
(一)生成成果是否受著作權保護?
在生成式 AI 的應用情境下,「AI 產出內容是否受著作權保護」為最核心之法律問題之一。依我國現行法制與主管機關見解,著作權之成立仍以「人類精神創作」為必要前提。
依智慧財產局(經濟部智慧財產局)相關函釋(如電服字第 1111031 號),若內容係由人工智慧自動生成,而未有足以體現人類創作意圖與選擇之介入,原則上不構成著作,亦不受著作權法保護。此一立場與多數法域之見解一致,例如美國著作權局亦明確表示,缺乏人類創作性之 AI 生成內容不具著作權保護資格。
此一原則可概括為「人類精神創作原則」(human authorship requirement),其核心在於:著作權所保護者,並非成果本身,而是體現於作品之人類創作活動。換言之,法律所關注的並非「作品是否具有價值」,而是「該作品是否反映人類之創作判斷與精神投入」。
在生成式 AI 的脈絡下,若使用者僅透過簡單提示詞即生成內容,該內容通常難以認定具有足夠之人類創作性;反之,若使用者對生成內容進行結構設計、反覆修正、內容選擇與編排,則可能構成具有人類創作性的成果,進而符合著作權保護之要件。
(二)輸入他人著作進行生成是否構成侵權?
在生成式AI之使用過程中,教師常需將既有教材、學術文獻或其他資料輸入系統,以取得摘要、改寫或教學內容生成結果。此一行為在法律上,首先涉及之問題為:將他人著作輸入AI系統,是否構成著作權法上之利用行為,進而可能侵害著作權。
從著作權法之觀點分析,將他人著作輸入AI系統,原則上可能涉及「重製」(reproduction)行為。即使該等內容未直接對外公開,於系統中之上傳、暫存或處理過程,仍可能構成著作之複製。因此,若所輸入之內容屬受著作權保護之著作,且未經授權,即可能產生侵權疑慮。
然而,該等利用是否違法,仍須進一步依《著作權法》第65條之合理使用規定進行判斷。在教學情境下,教師利用AI處理資料,往往具有非營利之教育目的,且多用於摘要、重組或輔助理解,具備一定程度之轉化性(transformative use),此等因素原則上有利於合理使用之成立。
惟需注意者,在生成式AI應用中,合理使用之判斷並非一概成立,仍須視具體情境而定。特別是在以下情形下,侵權風險將顯著提高:
1.輸入完整著作或大比例內容:例如將整本教材、完整論文或大量段落輸入系統,可能不利於合理使用之認定。
2.輸入內容具有高度創作性:例如文學作品、專業教材或具獨特表達之內容,其保護強度較高。
3.使用目的接近替代原著功能:若AI生成內容可取代原著之閱讀或學習功能,將可能影響著作之潛在市場。
綜合而言,將他人著作輸入生成式AI系統,並非當然構成侵權,但其合法性高度依賴具體使用方式。對於教職員而言,較為安全之操作原則為:避免輸入完整著作,優先使用節錄內容,並將AI作為理解與整理之輔助工具,而非替代原著之內容來源。
(三)AI生成的數位教材涉他人著作利用是否可能主張合理使用?
在生成式AI應用於數位教材製作之情境中,即使輸入階段之資料利用得以合理使用加以解釋,教師於後續將AI生成內容納入教材並提供學生使用時,仍須進一步檢視該等利用行為是否符合《著作權法》第65條之合理使用要件。
換言之,合理使用之判斷,不僅適用於「輸入」階段,亦同樣適用於「生成後之使用」階段。特別是在教材已對外提供(例如上傳教學平台或發放講義)之情形下,其法律評價將更為嚴格。
依《著作權法》第65條之規定,合理使用應綜合考量下列因素:
1.利用之目的及性質
大學教學通常屬非營利目的,原則上有利於合理使用之成立。此外,若AI生成內容係對原著進行摘要、重組或轉化,使其具有新的教學功能或表達形式,則可能具備「轉化性利用」(transformative use)之特徵。
2.著作之性質
若所涉及之原著屬於事實性或資訊性內容(如學術論文、資料整理),較有利於合理使用;反之,若涉及高度創作性之作品(如文學作品、設計圖像),則應採較嚴格之判斷。
3.所利用之質量及其在整體著作中所占之比例
即使AI生成內容並非逐字複製原著,但若其實質內容高度依賴特定來源,或涵蓋原著之核心表達,仍可能不利於合理使用之認定。特別是在生成內容可替代原著之情況下,此一因素將顯著影響判斷結果。
4.對著作潛在市場與現在價值之影響
此一因素在生成式AI情境中尤為關鍵。若AI生成之教材內容,足以取代學生閱讀原著之需求,或減少原著之市場利用機會,則合理使用之主張將面臨較大困難。
綜合上述因素,在生成式AI應用於教材製作時,合理使用之成立,並非當然,而須依具體情境進行個案判斷。尤其當AI生成內容具有「替代原著」之效果時,其法律風險將顯著提高。
因此,對於教職員而言,較為穩健之實務作法,應避免將AI生成內容作為原著之替代品,而應定位為教學輔助工具。例如,透過生成摘要、重點整理或問題引導,協助學生理解原始資料,而非直接取代原著之閱讀。
此外,除《著作權法》第65條之一般合理使用規定外,教學情境尚須特別注意同法第46條所設之「教學利用特別規定」。
依第46條規定,依法設立之各級學校及其擔任教學之人,於為授課目的之必要範圍內,得重製、公開演出或公開上映已公開發表之著作。換言之,在實體課堂教學情境中,教師為教學需要所進行之著作利用,原則上具有相當程度之彈性空間。
進一步而言,若已採取合理技術措施(例如限制登入帳號、修課學生存取權限等),防止未具學籍或未選課之人接收,則依同條第2項規定,亦得以公開播送或公開傳輸方式提供該等著作。此使數位教學平台(如校內 LMS 系統)之使用,在符合條件下亦可納入合法範圍。
然而,應特別注意,第46條之適用仍受「授課目的」與「必要範圍」之限制。亦即:利用行為須與具體教學內容具有直接關聯、利用範圍不得逾越教學所必要之程度、不得將該等內容提供予非修課學生或不特定公眾。此外,同條第3項準用第44條但書之規定,亦即不得不當損害著作權人之權益。
在生成式AI之應用情境下,此一規定具有重要意義。若教師係於實體課堂中,即時展示AI生成之內容,或引用相關著作進行教學說明,通常較容易落入第46條所允許之範圍;然而,若將該等內容整理為完整教材並長期上傳於平台,供學生反覆閱覽,則可能超出「必要範圍」,仍須回歸第65條合理使用之判斷。
(四)偶然的侵權使用者是否要負侵權責任?
在生成式AI之應用過程中,另一項重要問題在於:若AI生成之內容在使用者未察覺之情況下侵害他人著作權,該使用者是否仍須負擔侵權責任?
從著作權法之基本原則觀察,著作權侵害多屬於民事侵權行為,其成立通常不以行為人具備故意為必要。亦即,即使使用者主觀上並無侵權之意圖,若其行為客觀上已構成重製、改作或公開傳輸等侵權利用,仍可能需負擔民事損害賠償責任。此一責任型態,實務上常被理解為具有一定程度之「過失責任」性質。
在生成式AI情境下,使用者雖未直接接觸原著,亦可能因AI生成之結果與既有作品構成實質近似,而產生侵權結果。此即形成所謂「非故意侵權」或「偶然侵權」之情形。然而,現行法制下,單純以「不知情」作為抗辯,通常不足以完全免除責任。
惟需進一步說明者,責任之成立與範圍,仍將受到使用者注意義務(duty of care)之影響。若使用者已採取合理之審查措施,例如對生成內容進行基本檢核、避免使用明顯高度相似之內容,則其過失程度可能降低,進而影響損害賠償之範圍或責任評價。
在教學情境中,大學教師使用生成式AI製作教材,通常係基於教育目的,且並非以營利為主要考量。此一因素,於責任判斷上雖不當然排除侵權成立,但在衡量過失程度與損害範圍時,可能具有一定之影響。
綜合而言,在生成式AI之使用下,「是否知情」已不再是責任判斷之核心標準,取而代之者,為「是否已盡合理注意義務」。對教職員而言,較為重要之風險控管方式,並非完全避免使用AI,而是在使用過程中建立基本之檢核與審查機制,以降低侵權發生之可能性。
四、從人工智慧基本法看數位教材的AI治理
隨著2026年《人工智慧基本法》的施行,我國對於人工智慧之規範,已由過去分散於各領域之個別法規,逐步邁向整合性之治理架構。該法採取「橫向通用原則」與「縱向事業規範」並行之制度設計,強調依不同應用場域之風險特性,建立相應之管理機制。
在高等教育場域中,生成式AI之應用涉及教學、研究與行政等多重面向,其影響已不僅限於效率提升,而係涉及知識產製方式與學術責任結構之變動。因此,生成式AI應被視為一種「中高風險之知識處理系統」,而非單純之輔助工具。
基於此一定位,大學於導入生成式AI於數位教材製作時,應建立具體之治理框架,而非僅依賴個別教師之自律判斷。
(一)AI治理之三大核心原則
本文建議,於教育場域中,生成式AI之使用,至少應遵循以下三項核心原則:
1. 安全性與隱私保護(Safety & Privacy)
教師於使用生成式AI時,應避免輸入任何可識別之學生個人資料、未公開之研究內容或涉及商業機密之資訊。此不僅涉及《個人資料保護法》之遵循,亦關係到研究倫理與機構信賴。
2. 透明度義務(Transparency)
於教材製作過程中,如有使用AI輔助生成內容,應適度揭露其使用情形,例如於講義或簡報中標示AI參與之部分。此舉有助於維持學術誠信,並使學生理解知識生成之過程。
3. 責任歸屬與最終審核(Accountability)
無論AI在教材製作中扮演何種角色,教師仍應對最終內容之正確性與合法性負完全責任。生成式AI可能產生錯誤或不當內容,並不得作為免責事由。
(二)教學實務之操作原則
除上述治理原則外,教職員於實務操作中,應建立具體之風險控管機制:
1. 保留紀錄(Log Retention)
應保存提示詞(prompt)、生成結果及後續編修歷程,以利教學品質控管,並於發生爭議時證明人類創作投入。
2. 選擇適當工具(Tool Selection)
應優先使用具備明確資料治理政策之AI工具,避免輸入資料被再利用於模型訓練,特別是在涉及敏感資訊時。
3. 最終審核(Human-in-the-Loop Review)
教師應對AI生成內容進行實質審查,不得將AI輸出直接視為可用教材,以避免錯誤或侵權風險。
(三)制度與個人之雙軌責任
生成式AI之使用,已由單純個人工具操作問題,轉變為機構治理議題。
一方面,教師需於日常教學中落實上述操作原則;另一方面,學校亦應建立相應制度,例如:AI使用指引、教材製作規範、數位平台權限控管機制等,使AI之使用由「個人判斷」轉化為「制度支持」。
(四)治理核心:從「是否使用」到「是否負責任地使用」
綜上所述,《人工智慧基本法》之意義,並非限制AI於教育場域之使用,而在於要求各機構建立負責任使用AI之能力。因此,在數位教材製作情境中,真正的問題已不再是:「是否應使用AI」,而是:「是否已建立足以支撐AI使用之治理與風險控管機制」。
五、結語
本文透過對生成式AI技術特性、著作權法規範及教學實務情境之分析,指出當前著作權判斷已呈現數項重要轉變:從「結果與來源可對應」轉向「過程與介入程度之判斷」,從「接觸可能性」轉向「實質近似」,並進一步引發對創作門檻與著作權保護強度之制度反思。在此脈絡下,「人類精神創作原則」及「創作光譜理論」,提供了一套可操作之分析架構,使教職員得以在創新與法遵之間取得平衡。
同時,隨著《人工智慧基本法》之施行,生成式AI之使用亦由個人操作問題,轉變為機構治理議題。高等教育機構除需建立安全性、透明度與可問責性之基本原則外,亦應透過制度化之操作流程與內部規範,形塑「負責任使用AI」之能力。
因此,在生成式AI時代,法律並非創新之限制,而是確保教學品質與知識價值之制度基礎。透過誠實標示(transparency)、保留紀錄(documentation)及深度編修(human enhancement),教職員不僅得以降低著作權風險,更能強化教材之原創性與教學深度。
最終,生成式AI或可大量產出內容,但無法取代教師對知識之理解、判斷與責任。正是在此意義上,教師作為創作者與教育者之核心價值,不但未被削弱,反而在生成時代中更加凸顯。