使用人工智慧進行工作時你需要了解的 10 個安全風險
簡單來說 到 2025 年中期,人工智慧將深深嵌入工作場所的運作中,但廣泛使用(尤其是透過不安全的工具)大大增加了網路安全風險,促使人們迫切呼籲更好的資料治理、存取控制和針對人工智慧的安全政策。
到2025年中期,人工智慧在職場上將不再是一個遙不可及的概念。它已融入行銷、法務、工程、客戶支援、人力資源等部門的日常工作流程。人工智慧模型如今可以協助起草文件、產生報告、編寫程式碼,甚至實現內部聊天支援的自動化。但隨著對人工智慧的依賴日益加深,風險格局也隨之擴大。
報告 Cybersecurity Ventures 預測,到 10.5 年,全球網路犯罪成本將達到 2025 兆美元 反映出與前一年相比,與人工智慧相關的違規行為年增率為38%。同一來源估計,約有64%的企業團隊在某種程度上使用生成式人工智慧,而其中只有21%的組織制定了正式的資料處理政策。
這些數字不僅僅是行業熱議,它們表明人工智慧的曝光度正在不斷增長。由於大多數團隊仍然依賴公共或免費版AI工具,因此對AI安全意識的需求迫在眉睫。
以下是團隊在工作中使用人工智慧時面臨的十大關鍵安全風險。每個部分都解釋了風險的性質、運作方式、構成危險的原因以及最常見的情況。這些威脅在10年已經影響實際的組織。
透過提示洩漏輸入
最常見的安全漏洞之一始於第一步:提示本身。在行銷、人力資源、法務和客戶服務部門,員工經常將敏感文件、客戶電子郵件或內部程式碼貼到AI工具中,以便快速起草回覆。雖然這種做法看似高效,但大多數平台至少會將部分資料儲存在後端伺服器上,這些資料可能會被記錄、索引或用於改進模型。根據 Varonis 於 2025 年發布的一份報告顯示,99% 的公司承認與人工智慧分享機密數據或客戶數據 未應用內部安全控制的服務。
當公司資料進入第三方平台時,通常會受到許多公司無法完全控制的保留策略和員工存取權限的影響。即使是“私有”模式也可能儲存用於調試的碎片資訊。這會帶來法律風險,尤其是在 GDPR、HIPAA 和類似法律框架下。為了減少資料洩露,該公司現在使用過濾器在將敏感資料發送到 AI 工具之前將其刪除,並對哪些資料可以共享制定更明確的規則。
AI日誌中的隱藏資料存儲
許多人工智慧服務會保留用戶提示和輸出的詳細記錄,即使用戶刪除了它們。 2025 年泰雷茲資料威脅報告指出 45% 的組織經歷過涉及 AI 日誌中殘留資料的安全事件。
這在金融、法律和醫療保健等行業尤其重要,因為即使是姓名、帳戶資訊或病史的臨時記錄也可能違反合規協議。有些公司認為刪除前端資料就足夠了;實際上,後端系統通常會儲存數天甚至數週的副本,尤其是在用於優化或訓練時。
為了避免這種陷阱,團隊越來越多地轉向具有嚴格資料保留協議的企業計劃,並實施確認後端刪除的工具,而不是依賴顯示「刪除歷史記錄」的模糊儀表板切換。
透過對敏感資料的學習來避免模型漂移
與傳統軟體不同,許多人工智慧平台透過學習用戶輸入來改善回應。這意味著,包含特殊法律用語、客戶策略或專有代碼的提示可能會影響未來提供給無關用戶的輸出。 史丹佛人工智慧指數 2025 年成長 56% 據報道,公司特定數據會無意中出現在其他地方的輸出中。
在競爭優勢依賴智慧財產權的行業中,即使是微小的洩密也可能損害收入和聲譽。由於學習過程會自動進行,除非特別停用,因此許多公司現在需要本地部署或隔離模型,這些模型不會保留使用者資料或從敏感輸入中學習。
人工智慧產生的網路釣魚和欺詐
人工智慧讓網路釣魚攻擊變得更快、更逼真,也更難發現。到 2025 年, DMARC 報告激增 4000% 在人工智慧生成的網路釣魚活動中,許多攻擊活動使用了從洩漏或公開的公司資料中獲取的真實內部語言模式。據 Hoxhunt 稱,今年基於語音的深度偽造詐騙增加了 15% ,每次襲擊的平均損失接近 4.88 萬美元。
這些攻擊通常精準地模仿高階主管的說話模式和溝通風格,以至於傳統的安全訓練無法阻止它們。為了保護自身安全,公司正在擴展語音驗證工具,對高風險審批強制使用二級確認管道,並培訓員工識別可疑語言,即使這些語言看起來經過精心修飾且沒有錯誤。
對私有 API 的控制權薄弱
在急於部署新工具的過程中,許多團隊使用保護措施極少的 API 將 AI 模型連接到儀表板或 CRM 等系統。這些整合通常缺少一些關鍵實踐,例如令牌輪換、速率限製或用戶特定權限。如果令牌洩漏(或被猜到),攻擊者可以在無人察覺之前竊取資料或操縱連接的系統。
這種風險並非理論上的。最近 Akamai 研究發現,84% 的安全專家報告了 API 安全事件 過去一年,近一半的組織因為 API 令牌外洩而遭遇資料外洩。在一個案例中,研究人員 在公共儲存庫中發現超過 18,000 個暴露的 API 機密 .
由於這些 API 橋接器在後台靜默運行,公司通常只有在分析或客戶記錄中出現異常行為後才會發現漏洞。為了防止這種情況發生,領先的公司正在加強控制,包括強制縮短令牌有效期、定期對連接 AI 的端點進行滲透測試,以及保留所有 API 活動的詳細審計日誌。
團隊中影子人工智慧的採用
到 2025 年,未經批准的人工智慧使用(即所謂的「影子人工智慧」)將變得普遍。 Zluri 研究發現,80% 的企業 AI 使用率 透過未經 IT 部門批准的工具來實現。
員工經常會使用可下載的瀏覽器擴充功能、低程式碼產生器或公共 AI 聊天機器人來滿足緊急需求。這些工具可能會將內部資料傳送到未經驗證的伺服器,缺乏加密,或收集組織無法察覺的使用日誌。如果無法了解共享的數據,公司就無法強制合規或保持控制。
為了解決這個問題,許多公司現在部署了內部監控解決方案,用於標記未知服務。他們也維護經過審核的AI工具列表,並要求員工只能透過安全環境中的授權管道進行操作。
即時注入和操縱模板
提示注入是指有人將有害指令嵌入共享提示範本或外部輸入(隱藏在合法文字中)中。例如,原本設計為「總結最新客戶郵件」的提示可能會被竄改,從而提取完整的會話歷史記錄或無意中洩露機密內容。 OWASP 2025 GenAI 安全 Top 10 將提示注入列為主要漏洞 警告稱,用戶提供的輸入(尤其是與外部資料結合時)可以輕鬆覆蓋系統指令並繞過安全措施。
依賴內部提示庫而缺乏適當監管的組織可能會面臨連鎖問題的風險:不必要的資料外洩、誤導的輸出或損壞的工作流程。此類問題通常出現在知識管理系統以及基於提示範本建立的自動化客戶或法律回應中。為了應對這項威脅,專家建議採用分層治理流程:在部署前集中審查所有提示模板,盡可能清理外部輸入,並在隔離環境中測試提示,以確保沒有隱藏的指令漏網。
未經驗證的輸出導致的合規性問題
生成式人工智慧通常會產生精美的文本,但這些輸出可能不完整、不準確,甚至不符合法規。這在金融、法律或醫療保健領域尤其危險,因為微小的錯誤或誤導性語言都可能導致罰款或責任。
根據 ISACA 2025 年調查顯示,83% 的企業報告稱其在日常使用生成式人工智慧 但只有31%的機構制定了正式的內部AI政策。令人擔憂的是,64%的專業人士對AI濫用表示嚴重擔憂,然而只有18%的機構投資於深度偽造檢測或合規性審查等保護措施。
由於人工智慧模型無法理解法律細節,許多公司現在要求,任何人工智慧產生的內容在公開使用前都必須經過人工合規或法律審查。此步驟旨在確保聲明符合監管標準,並避免誤導客戶或使用者。
第三方外掛風險
許多人工智慧平台提供連接到電子郵件、日曆、資料庫和其他系統的第三方插件。這些插件通常缺乏嚴格的安全審查,並且 2025 年 Check Point Research 人工智慧安全報告發現,每 1 個人工智慧提示中就有 80 個具有較高的洩漏風險 敏感資料-部分風險源自於插件輔助互動。 Check Point 還警告稱,未經授權的 AI 工具和配置錯誤的整合是企業資料完整性面臨的最大新興威脅之一。
未經審核安裝的插件可以存取您的即時輸入、輸出和相關憑證。它們可能會將這些資訊傳送到公司監管範圍之外的外部伺服器,有時甚至沒有加密或適當的存取日誌記錄。
現在,一些公司要求在部署之前對插件進行審查,只允許列入白名單的插件,並監控與活動 AI 整合相關的資料傳輸,以確保沒有資料離開受控環境。
人工智慧工具缺乏存取治理
許多組織依賴沒有用戶特定權限的共享 AI 帳戶,因此無法追蹤誰提交了哪些提示或存取了哪些輸出。 2025 年 Varonis 報告分析了 1,000 個雲端環境 發現98%的公司正在使用未經驗證或未經授權的人工智慧應用程序,88%的公司保留幽靈用戶,這些用戶對敏感系統擁有持久的存取權限(來源)。這些發現凸顯出,幾乎所有公司都面臨治理漏洞,這可能導致無法追蹤的資料外洩。
如果未追蹤個人訪問,內部資料濫用(無論是意外還是惡意)通常會在很長一段時間內不被察覺。共享憑證模糊了責任界限,並使違規發生時的事件回應變得複雜。為了解決這個問題,企業正在轉向人工智慧平台,該平台可以強制執行細粒度的權限、即時級活動日誌和使用者歸因。這種級別的控制可以檢測異常行為,及時撤銷非活動或未經授權的訪問,並將任何資料活動追溯到特定個人。
現在做什麼
審視你的團隊每天實際如何使用人工智慧。明確哪些工具可以處理私人數據,並確定哪些人可以存取這些數據。明確哪些資料可以與人工智慧系統共享,並建立一個簡單的清單:輪換 API 令牌、移除未使用的插件,並確認所有儲存資料的工具都具備真正的刪除選項。大多數資料外洩事件的發生,是因為公司認為「有人在監視」。實際上,安全始於你今天邁出的每一個小步。
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
Bitget 現貨槓桿新增 LA/USDT!
AINUSDT 現已上架合約交易和交易BOT
Bitget 發布 2025 年 6 月份保護基金估值報告
關於 Bitget Token(BGB)2025 年第二季度燒毀的公告
加密貨幣價格
更多








