Bitget App
交易「智」變
快速買幣市場交易合約BOT理財跟單
人工智慧平台如何重塑媒體:生成新聞與倫理困境

人工智慧平台如何重塑媒體:生成新聞與倫理困境

MpostMpost2025/07/05 02:10
作者:Mpost

簡單來說 到 2025 年,生成性人工智慧將成為新聞編輯室營運的核心部分,加速內容創作,同時對準確性、道德和編輯責任提出嚴峻挑戰。

到2025年,生成式人工智慧將從測試階段的工具轉變為新聞編輯室營運的常規組成部分。許多媒體團隊現在使用人工智慧平台,例如 ChatGPT , 克勞德 , 谷歌雙子座 以及日常工作中自訂的編輯模型。這些系統可以幫助編輯以既定格式撰寫標題、簡短摘要、文章草稿,有時甚至是完整的文章。

這種趨勢並不限於線上媒體。大型傳統媒體公司——從地方報紙到全球廣播公司——也在使用生成模型來滿足日益增長的內容需求。隨著每天發布的新聞越來越多,而人們在每篇新聞上花費的時間越來越少,編輯們開始依賴人工智慧來加快速度並減少重複性任務。這有助於他們在不增加員工負擔的情況下更快地發佈內容。

雖然人工智慧不會取代深度調查或嚴肅新聞,但它如今在現代媒體的運作中扮演關鍵角色。然而,這種轉變也帶來了新的挑戰——尤其是在確保事實準確性、保持問責制以及維護公眾信任方面。

什麼是生成新聞?

生成性新聞意味著使用人工智慧和大型語言模型來輔助或完全產生編輯內容。這包括新聞摘要、文章草稿、標題、事實查核,甚至是頁面版面構思的工具。一些常規版塊,例如天氣更新或財經簡報,現在完全由人工智慧撰寫。

這種方法最初只是一些簡單的範本和基於數據的輸出,例如股票報告。但它已經發展成為編輯工作流程中不可或缺的一部分。彭博社、福布斯和美聯社等媒體集團已經在結構化領域使用或測試了人工智慧,這些領域的輸入可靠,出錯的可能性也較低。

生成新聞目前涵蓋:

  • 影片和播客片段的腳本生成;
  • 全球新聞的在地化;
  • 將長篇訪談重新整理成短篇內容;
  • 根據過去讀者參與度進行標題測試。

焦點從取代記者轉向改變他們處理原始資料和早期稿件的方式。人工智慧充當寫作助手,而人類則負責指導最終的報導。

人工智慧如何改變新聞編輯室的工作流程

傳統上,每個故事都由人類角色——記者、編輯、製片人——塑造。如今,人工智慧工具正在多個階段介入這一過程:

  • 在研究過程中,人工智慧提供背景摘要並指出有用的來源;
  • 在生成內容時,建議文章結構和新鮮角度;
  • 在編輯過程中,它會標記偏見、邏輯薄弱或措辭問題;
  • 對於受眾定位,它會調整語氣和詞彙選擇以符合特定群體。

現在, 27% 的出版商經常使用人工智慧 建立故事摘要。 24% 的人使用它進行翻譯,80% 的行業領導者計劃在年底前將這些工具添加到工作流程中。編輯仍然發揮著至關重要的作用,現在他們扮演著品質經理、創意策劃者和提示專家的角色。

人工智慧也正在改變新聞編輯室的人員配置。 「即時工程師」和「人工智慧倫理顧問」等職位正變得越來越普遍。這些新職位確保了人工智慧支援的準確性、公正性和透明性。

到2025年,生成式人工智慧將在媒體領域得到應用

2025 年初的產業調查顯示,全球新聞編輯室的人工智慧部署將急劇增加:

  • 一項調查 美聯社和 Cision 的數據顯示 約 70% 的新聞領導者表示在其工作流程的某些部分使用了生成式人工智慧。
  • 一份報告 普華永道表示,超過 64% 的媒體公司 已經在內容創作或分發中使用AI工具。
  • 在歐洲當地媒體上, 41% 的記者現在每週都會使用人工智慧完成任務 例如總結公開會議或法庭報告。
  • 一項研究來自 EBU 的數據顯示,76% 的觀眾對 AI 感到滿意 用於影像標記等任務-當涉及人工審核時上升到 88%。

儘管已採用,但許多組織仍處於測試階段。完全自動化的情況很少見。大多數媒體機構現在使用混合系統。他們使用演算法來產生內容,然後在人工監督下進行檢查和編輯。

倫理挑戰:偏見、透明度和編輯責任

人工智慧在內容創作中的應用引發了嚴肅的倫理考量。核心問題是:當內容出現錯誤、誤導或有害時,誰來負責?

偏見和框架

人工智慧模型從其訓練資料中繼承了偏見——涵蓋社會、文化和政治層面。 對七種主要語言模型的研究表明 產生的新聞文章中存在明顯的性別和種族偏見。這意味著編輯監督對於檢查語氣、平衡和來源選擇至關重要。

讀者透明度

觀眾想知道內容是否由人工智慧生成。 2024 年 XNUMX 月 EMARKETER 調查 61.3% 的美國消費者表示,出版物應始終揭露人工智慧的參與情況。然而,披露做法各不相同。有些出版商使用腳註或元資料;有些則不提供標籤。缺乏透明度可能會削弱受眾的信任,尤其是在政治或危機通報方面。

人類責任

人工智慧無法為其錯誤承擔責任。出版商和編輯團隊必須承擔責任。這意味著人類的監督必須跟上人工智慧的速度和數量。麥肯錫最近的一項調查發現 只有 27% 的組織會審查所有 AI 產生的內容 在批准公開使用之前。這暴露了差距:當大多數輸出未經檢查時,錯誤就會溜走——這使得強有力的人工審核變得更加重要。

放大錯誤的風險

人工智慧可以「幻化」假訊息。 2025 年審計發現,領先的人工智慧工具有 80-98% 的可能性 重複重大話題的錯誤訊息。如果不加以控制,這些錯誤訊息可能會在各個媒體上傳播,並損害媒體的可信度。

案例:產生新聞的有效性和無效性

以下現實世界的例子展示了生成式人工智慧在媒體領域的兩面性。你將看到人工智慧如何幫助地方新聞機構提升報道質量,以及錯誤如何損害信任和可信度。

適用範圍

區域性 挪威報紙 特羅姆瑟 開發了人工智慧 與 IBM 合作開發了名為 Djinn 的工具,用於自動化文件分析。 Djinn 每月處理超過 12,000 份市政記錄,提取摘要和關鍵問題。之後,記者確認細節並撰寫最終文章。自實施以來, 特羅姆瑟 以及 Polaris Media 網路中的其他 35 家本地報紙增加了新聞報道,並將研究時間減少了 80% 以上。

斯堪的納維亞出口 aftonbladet 推出了一個人工智慧 建立編輯工具的中心。在2023年歐盟選舉期間,它部署了「選舉夥伴」(Election Buddy),這是一個經過驗證內容訓練的聊天機器人。它吸引了超過150,000萬名讀者,網站登入量比平常增加了十倍。讀者幾乎有一半的時間會擴展自動故事摘要,這表明讀者的參與度更高。

這些案例展示了人工智慧如何幫助新聞編輯室報導更多本地新聞並與讀者建立聯繫。編輯們仍然會檢查稿件,以確保高品質。

失敗之處

2024六月份, 鮑威爾論壇報 記者 CJ Baker 注意到 競爭對手的文章包含結構奇怪的引用和事實錯誤。調查顯示,該名記者使用人工智慧產生虛假引用並曲解細節——例如,錯誤地引用陳述。該報道後來被刪除。這事件凸顯了人工智慧產生的錯誤如何在未經適當審核的情況下傳播。

在2025早期, King特色辛迪加 推出報紙夏季閱讀增刊 点讚 芝加哥太陽時報 費城問詢報。 它 featured 據稱這些書都是安迪威爾和李敏金等知名作家的作品。所有這些書最終都被證明是人工智慧的虛構作品。該公司刪除了相關補充資料,解雇了作者,並加強了針對未經驗證的人工智慧生成內容的政策。

2025 年初,比利時女性雜誌的數位版將 Elle 和 Marie Claire 被發現發佈人工智慧生成的內容 這些內容完全以虛構的記者身份發布——“Sophie Vermeulen”、“Marta Peeters”,甚至還有一位自稱是心理學家的“Femke”。這些用戶撰寫了數百篇關於美容、時尚、健康和心理健康的文章——背後沒有真人參與——引發了比利時心理學家委員會的強烈反對。出版商(Ventures Media)刪除了這些虛假的署名,並用免責聲明替換,聲明這些文章由人工智慧生成。

位於香港的網站, BNN Breaking 於 2024 年中期曝光利用生成式人工智慧編造新聞 ——包括虛假的公眾人物引言——並將內容偽裝成真正的新聞報道。 《紐約時報》的一項調查發現,該網站越來越依賴人工智慧來大量發布誤導性報導。曝光後,該網站被下線(隨後更名為“Trimfeed”)。例如,該網站錯誤地引用了一位舊金山主管「辭職」的訊息,以及對愛爾蘭播音員戴夫·範甯的審判報道。

在其他例子中,人工智慧犯了無人及時發現的錯誤。如果沒有人來核實事實,即使是很小的錯誤也會損害信任,損害媒體的聲譽。

未來趨勢:監理、混合模式、人機協作

生成式人工智慧如今在新聞編輯室的工作中扮演著穩定的角色。隨著越來越多的團隊採用這些工具,專家、記者和監管機構正在探索如何管理其使用並確保品質。某些轉變已顯而易見,其他轉變也即將到來。

監管即將出台

政府和行業團體正在製定編輯環境中的人工智慧標準,包括標籤要求和道德認證。 OpenAI 在這一領域一直積極發聲——例如, 13月XNUMX日政策提案 他們將中國人工智慧實驗室DeepSeek描述為“國家控制”,並敦促禁止“中國製造”的模型。他們的立場概述如下: OpenAI對美國 OSTP/NSF 人工智慧行動計畫資訊請求的官方回應。

混合工作流程

新聞業的近期發展並非完全自動化,而是人機混合。作者將越來越多地與結構化提示系統、即時事實查核 API 以及語音稿件助理合作。 微軟執行長薩蒂亞·納德拉最近分享 :

“當我們考慮所有這些代理商時,最根本的就是新的工作和工作流程......我認為有了人工智慧,我就可以和同事一起工作。”

技能進化

新聞編輯室湧現新的角色。擁有編輯意識的快速工程師、接受過人工智慧素養培訓的評論編輯、將人類洞察力與機器輸出相結合的內容策略師。新聞業並沒有消失。它正在圍繞著那些能夠實現新報道和出版形式的工具進行變革。

根據最近的一項行業調查, 全球約有四分之三的新聞編輯室目前在部分工作中使用人工智慧 87% 的編輯主管表示,像 GPT 已經重塑了團隊的運作和決策方式。

這些轉變表明,與人工智慧相關的角色已經成為核心編輯流程的一部分,而不是附加的東西。

從工具到信任:為何編輯標準依然 Defi結果

生成式人工智慧為新聞業帶來了速度和數量。但新聞業並非如此 defi取決於它生產的速度。它是 defi取決於其呈現方式是否真實、負責、符合情境。

媒體機構如果在採用人工智慧時,沒有明確作者、責任和準確性,就有可能用規模換取信任。而那些將人工智慧與透明流程、編輯培訓和道德監督結合的媒體機構,才有機會真正提升其內容的覆蓋範圍和完整性。

2025年,最重要的並非人工智慧在新聞編輯室的存在,而是它如何被使用、在哪裡被監管,以及它必須遵循哪些標準。媒體的未來或許會由演算法加速發展,但維繫媒體的價值觀仍是人類。

此外,人工智慧在新聞編輯室以外的領域持續展現潛力,包括 幫助專業人士和個人建立工作流程、簡化任務並提高生產力 .

0

免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。

PoolX: 鎖倉獲得新代幣空投
不要錯過熱門新幣,且APR 高達 10%+
立即參與

您也可能喜歡

Bitget 現貨槓桿新增 LA/USDT!

Bitget Announcement2025/07/10 14:24

AINUSDT 現已上架合約交易和交易BOT

Bitget Announcement2025/07/10 13:00

Bitget 發布 2025 年 6 月份保護基金估值報告

Bitget Announcement2025/07/10 10:00