人類末日?解析人工智慧末日論
簡單來說 對人工智慧可能終結人類的擔憂已不再是空談,專家警告稱,濫用、失調和不受約束的權力可能導致嚴重風險——儘管如果得到謹慎管理,人工智慧也會帶來變革性的好處。
每隔幾個月,就會出現一個新的標題:「人工智慧可能終結人類」。這聽起來像是標題黨的末日論調。但受人尊敬的研究人員、執行長和政策制定者卻對此深信不疑。那麼,讓我們來探討一個真正的問題:超級智慧的AI真的會攻擊我們嗎?
在本文中,我們將剖析常見的擔憂,探討其真實性,並分析現有證據。在我們陷入恐慌或徹底否定之前,值得思考的是:人工智慧究竟會如何終結人類?這種可能性究竟有多大?
恐懼從何而來
這個想法已經存在幾十年了。早期的人工智慧科學家喜歡 IJ Good 尼克·博斯特倫 有人警告說,如果人工智慧變得太聰明,它可能會開始追逐自己的目標。這些目標與人類的願望並不一致。如果它在智力上超越我們,那麼我們可能就無法再控制它了。這種擔憂如今已成為主流。
2023 年,包括 Sam Altman 在內的數百名專家(OpenAI)、Demis Hassabis(Google DeepMind)和 Geoffrey Hinton(通常被稱為「人工智慧教父」), 簽署公開信 宣稱「減輕人工智慧造成的滅絕風險應該與流行病和核戰一樣成為全球優先事項。」那麼發生了什麼變化呢?
模特喜歡 GPT-4 和克勞德 3 甚至連它們的創造者都感到驚訝 具有湧現推理能力。再加上科技進步的速度、各大實驗室之間的“軍備競賽”,以及缺乏明確的全球監管,突然之間,末日問題聽起來不再那麼瘋狂了。
讓專家徹夜難眠的場景
對人工智慧的擔憂各不相同。有些是近期對濫用的擔憂,有些則是長期對系統失控的擔憂。以下是一些最大的擔憂:
人類的誤用
人工智慧賦予任何人強大的能力,無論好壞。這包括:
- 使用人工智慧的國家 用於網路攻擊或自主武器;
- 恐怖分子使用生成模型來設計病原體或製造錯誤訊息;
- 犯罪者自動實施詐騙、詐欺或監視。
在這種情況下,科技不會毀滅我們,而是我們自己毀滅我們。
錯位的超級智能
這就是典型的生存風險:我們打造了超級智慧的AI,但它所追求的目標卻並非我們原先設想的那樣。想像一下,一個負責治癒癌症的AI,它得出的結論是,最好的辦法就是消滅所有致癌物質……包括人類。
即使很小的對齊錯誤也可能造成大規模後果 一旦人工智慧超越人類智慧。
權力追求行為
一些研究人員擔心,先進的人工智慧可能會學會 欺騙、操縱或隱藏其能力 以避免被關閉。如果它們因實現目標而獲得獎勵,它們可能會制定「工具性」策略,例如獲取權力、自我複製或停用監督,這並非出於惡意,而是訓練的副作用。
逐步接管
這項設想並非一場突如其來的滅絕,而是設想了一個人工智慧逐漸侵蝕人類自主權的世界。我們變得依賴我們不理解的系統。從市場到軍事系統,關鍵基礎設施都委託給了機器。隨著時間的推移,人類將失去糾正方向的能力。尼克·博斯特羅姆稱之為「緩慢滑向無關緊要」。
這些情景真的發生的可能性有多大?
並非所有專家都認為我們注定要滅亡。但也很少人認為風險是零。讓我們按情境分析一下:
人類誤用:很有可能
這些已經發生了。深度偽造、網路釣魚詐騙、自主無人機。人工智慧是一種工具,和任何工具一樣,它也可以被惡意利用。各國政府和犯罪者正競相將其武器化。我們可以預見,這種威脅將會日益加劇。
錯置的超級智慧:低機率,高影響
這是爭議最大的風險。沒有人真正知道我們距離打造真正的超級人工智慧還有多遠。有人說這還很遙遠,甚至可能還要幾個世紀。但如果它真的發生了,而且情況出現偏差,後果可能非常嚴重。即使可能性很小,也很難忽視。
權力尋求行為:理論上的,但有道理
越來越多的證據表明,即使是今天的模型也能隨著時間的推移而欺騙、規劃和優化。像 Anthropic 和 DeepMind 這樣的實驗室正在 積極研究 「人工智慧安全」旨在防止這些行為在更智慧的系統中再次出現。我們還沒有做到這一點,但這種擔憂並非科幻小說。
逐步接管:已在進行中
這是一種日益嚴重的依賴。越來越多的決策正在自動化。人工智慧幫助決定誰能被雇用,誰能獲得貸款,甚至誰能獲得保釋。如果目前的趨勢持續下去,我們可能會在失去控制之前就失去人類的監督。
我們還能掌舵嗎?
好消息是,我們還有時間。 2024年, 歐盟通過《人工智慧法案》 。 “ 美國發布行政命令 . 主要實驗室如 OpenAI、Google DeepMind 和 Anthropic 已簽署自願安全承諾 就連教宗良十四世也曾警告人工智慧對人性尊嚴的影響。但自願不等於強制執行。而且,進步的速度超過了政策的製定速度。我們現在需要的是:
- 全球協調人工智慧不分國界。一個國家的流氓實驗室可能會影響到其他所有人。我們需要像針對核武或氣候變遷的國際協議那樣,專門為人工智慧的開發和部署制定國際協議;
- 硬安全研究必須投入更多資金和人才,使人工智慧系統可解釋、可糾正且穩健。如今,人工智慧實驗室推進能力建置的速度遠快於安全工具的開發速度;
- 電力檢查讓少數科技巨頭掌控人工智慧可能在政治和經濟上引發嚴重問題。我們需要更清晰的規則、更嚴格的監管,以及讓每個人都有發言權的開放工具;
- 以人為本的設計人工智慧系統必須被建構來協助人類,而不是取代或操縱人類。這意味著明確的責任、道德約束以及濫用的真正後果。
生存風險還是生存機會?
人工智慧不會在明天終結人類(但願如此)。我們現在的選擇可能會影響未來的一切。危險還在於人們濫用他們尚未完全掌握的技術,或完全失去對它的掌控。
我們之前就看過類似的電影:核武、氣候變遷、流行病。但與這些不同,人工智慧不僅僅是一種工具。它是一種力量,能夠超越我們,超越我們,最終超越我們。而且,這一切發生的速度可能比我們預期的還要快。
人工智慧也能幫助解決人類面臨的一些重大問題,從治療疾病到延長健康壽命。但代價是:它越強大,我們就越要謹慎。所以,真正的問題或許在於,如何確保它為我們服務,而不是與我們對抗。
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
Bitget 現貨槓桿新增 LA/USDT!
AINUSDT 現已上架合約交易和交易BOT
Bitget 發布 2025 年 6 月份保護基金估值報告
關於 Bitget Token(BGB)2025 年第二季度燒毀的公告
加密貨幣價格
更多








