生成式 AI 衝擊新聞產業,「信任與真實」才是價值核心

觀察國際趨勢,可以發現主要民主國家對新聞 AI 的政策,已從初期的「促進創新」,轉向以「公共利益與社會風險控管」為核心。各國政策開始聚焦:出了錯誰負責?媒體是否具備揭露與事後問責的制度?這代表新聞 AI 議題已從技術升級,提升至民主治理的層次。

生成式 AI 正為各產業帶來前所未有的典範轉移,也使得傳統新聞產製流程面臨前所未有的重塑與挑戰。台北雜誌公會發布《數位平台與 AI 技術對出版業中新聞媒體之影響》調查,揭示了技術轉型對媒體生態的深遠衝擊。國立臺灣師範大學大眾傳播研究所教授王維菁指出,AI 不僅是效率工具,更動搖了新聞業的核心底線;媒體若無法轉型為「可信的資訊驗證者」,將面臨被時代邊緣化的危機。

AI 改變閱聽行為,流量仍是追求目標?

王維菁觀察,隨著生成式 AI 的興起,閱聽眾的閱讀行為正發生徹底改變。過去,媒體高度仰賴搜尋引擎帶來的流量;但在 AI 時代,讀者逐漸習慣在 AI 介面上直接獲取解答與摘要,不再點擊搜尋結果進入原始新聞網站。這使得媒體過去奉為圭臬的 SEO(搜尋引擎最佳化)面臨嚴峻挑戰,產業追求的指標被迫從「如何提高搜尋排名」轉向為「內容是否被 AI 引用」;,以及隨之而來更實際的問題:AI引用該如何轉換為實質的訂閱或營收?

另一個重要發現是,AI 的摘要機制在無形中放大了國際主流媒體的語語權。王維菁指出,根據雪梨大學的一份研究指出,在 Microsoft Copilot 產出的 434 則新聞回答中,資訊來源高度集中於大型機構,僅有20%連結至澳洲在地媒體。這意味著,若 AI 模型缺乏社會與在地敏感度,獨立、中小型或地方媒體將在 AI 的回答中逐漸隱形,進一步壓縮其曝光空間,並讓國際大型媒體持續主導全球資訊流。

AI 進入新聞產製流程,最終仍須由人類把關

回到新聞媒體本身來看,這波浪潮中,產業多將AI應用於何處?王維菁透過訪談發現,目前 AI 在新聞室中常見的應用包含語音轉文字、外電編譯自動化,以及輔助預測與決策等。整體而言,AI 在「資訊整理」階段的效益最高;然而,當任務涉及「價值判斷」或「公共責任」時,就必須仰賴嚴格的人為把關。

觀察 AI 進入新聞室的典型流程:通常由記者採訪並收集原始素材,接著交由 AI 進行初步處理,如語音轉譯、資料整理、生成摘要,甚至撰寫初稿。不過,「AI 生成初稿」在業界仍具爭議。部分媒體明令禁止,部分則採取「比例原則」,例如規範 AI 生成內容不得超過 30%,記者必須維持至少 70%的原創比例,以避免報導完全自動化而喪失新聞專業度。

當 AI 完成初步作業後,流程必須交回人類記者手中,進行事實查核、脈絡補充與在地化詮釋,最後由編輯台進行最終審查與發布。

王維菁強調,整套流程的核心問題不在於「AI 寫得好不好」,而是媒體必須釐清:新聞產製中,哪些環節可以交由 AI 自動化?又有哪些環節必須堅守由人類來執行與把關?

根據調查,台灣媒體在導入 AI 的策略上大致分為幾種不同的類型。一、積極建置:有些大型媒體非常積極,直接建置系統、成立 AI 專案小組,並配置專門的人員來支援。二、沙盒實驗:有些媒體則採取實驗做法,將 AI 串接到後台,讓記者能在一個安全的範圍內去探索和實驗。三、效能驅動:還有一些網路雜誌媒體會建立系統去抓取全球的外文與多語系資料,並直接生成初稿,這對資訊整合與生產效率非常有幫助。

王維菁認為,整體來看,人類與 AI 在新聞業中已逐漸形塑出穩定的協作模式:由 AI 負責前端的資料整理、生成摘要與初稿等標準化任務;而涉及價值判斷的任務,例如事實查核、編輯與選擇判斷,則回歸由人類負責。但她提醒,在此協作模式下,建立完善的「回溯機制」至關重要,以確保當產出內容出現爭議時,能準確追溯並釐清失誤環節。

新聞媒體須盡力挽回讀者的信任危機

「真實,是媒體公信力最重要的底線。」王維菁直言,生成式 AI 的出現正挑戰著新聞真實性的邊界。媒體必須劃定嚴格的紅線,避免真實性遭 AI 侵蝕,這不僅是效率問題,更是捍衛社會信任的關鍵。

根據路透新聞研究所 2025 年的調查,民眾對 AI 新聞的接受度仍偏低。僅有12%的受訪者能接受「全 AI 生成」新聞;若加入「人類審查」,比例提高至21%;若是「人類主導、AI 協助」,則提升至43%。有趣的是,即使是全人類產製的新聞,信任度也僅有62%。

調查進一步指出,多數讀者能接受 AI 用於改錯字、修文法或翻譯,但只有19%能接受「AI 主播」;若為 AI 生成的擬真照片,接受度也僅26%。更值得警惕的是,33%的民眾相信新聞機構會負責任地檢查 AI 輸出結果。這顯示社會對媒體使用 AI 仍存有嚴重的信任疑慮,未來媒體必須倚靠「透明度」和「人為把關」來挽回信任。

因此,王維菁提出三項 AI 倫理原則建議。第一是人工最終審查,AI 絕對不能獨立發布新聞,發布前的最後一關必須由人類編輯負責。由於新聞涉及事實與價值選擇,必須由可被問責的人類做出決定。第二是透明揭露,讀者有權知曉內容中 AI 介入的程度,媒體應制定並落實相應的標示標準。第三是責任歸屬,AI 產出若有誤,最終責任仍在媒體。因此,內部必須建立完善的審核與稽核機制。

她特別提醒,影像新聞是 AI 應用的高風險區。由於擬真影像嚴重挑戰了新聞現場的「目擊性」,許多媒體已嚴禁使用 AI 模擬真實新聞現場或人物。只有在非事實性的內容上才能謹慎使用,且必須經過攝影、設計與編輯的三重審查。

國際政策趨勢已從技術升級層次,轉向民主治理

觀察國際趨勢,可以發現主要民主國家對新聞 AI 的政策,已從初期的「促進創新」,轉向以「公共利益與社會風險控管」為核心。這並非反制 AI,而是體認到 AI 將深度影響資訊可信度與民主溝通。新聞媒體不再只是 AI 的應用場域,更是具高影響力的公共資訊中介。各國政策開始聚焦:出了錯誰負責?媒體是否具備揭露與事後問責的制度?這代表新聞 AI 議題已從技術升級,提升至民主治理的層次。

以歐盟的人工智慧法案(AI Act)為例,其核心精神為「風險分級」。針對新聞媒體,法案要求落實三點:辨識(清楚標示 AI 生成內容)、揭露(對外揭露 AI 介入程度,預計 2026 年 8 月生效),以及留存可追溯紀錄(包含生產流程與人為審核紀錄)。這意味著,未來媒體不能僅仰賴「自律聲明」,而是必須面對實質的法規檢驗。

針對治理實務,王維菁建議媒體應落實風險分類:低風險任務(如資料彙整、翻譯)著重效率提升;中風險任務(如生成標題、配圖)需人工複核與標示;高風險領域(如模擬新聞現場、虛擬主播)則須極度謹慎,且堅守「絕對不以 AI 完全自動化生產新聞」的底線。此外,建立流程紀錄與稽核機制,詳實記錄 AI 模型類型及介入環節,是為未來的責任歸屬預作準備。

建立「以人為本」的轉型策略,「信任」才是關鍵核心價值

「我們必須建立一個以人為本的技術轉型,」王維菁強調,AI 無法取代新聞的核心價值,反而加重了新聞專業中對於「關鍵判斷」的重要性。即使 AI 能提升產製速度和規模,但無法代替人類判斷事實、梳理脈絡與評估公共影響。

過去,媒體的競爭焦點在於「搶快」,力求成為第一個發布的人。但在生成內容大量被使用的此刻,媒體必須轉型為「可信的資訊驗證者」。「可信」不只是人類對媒體的要求,就算是AI模型,也透過各種機制希望確定內容的權威與公信力之後,才願意引用其資料。這也是目前許多網路媒體開始串聯、追求高品質新聞的原因。

王維菁認為,未來,媒體能否提供可被追溯、可被究責的內容?能否清晰揭露 AI 使用流程?能否追溯資料脈絡?能否明確落實問責機制?將決定媒體能否獲得社會與 AI 平台的雙重信任。在 AI 時代,「正確與真實」才是無可取代的價值。