Bitget App
交易「智」變
快速買幣市場交易合約理財廣場更多
Akash Network推出AkashML,首個基於去中心化GPU的全託管AI推理服務

Akash Network推出AkashML,首個基於去中心化GPU的全託管AI推理服務

MpostMpost2025/11/25 20:09
作者:Mpost

簡單來說 Akash Network 推出了 AkashML,提供 OpenAI相容 API、全球低延遲訪問,以及部署 LLM 最多可節省 85% 的成本。

阿卡什網絡 雲端運算市場平台 Akash 推出了首個完全託管的 AI 推理服務,該服務完全運行在去中心化的 GPU 上。這項新服務消除了開發者先前在 Akash 上管理生產級推理時面臨的運維挑戰,讓他們無需親力親為地進行基礎設施管理,即可享受去中心化雲端運算的優勢。

AkashML 在發佈時為以下模型提供託管推理: Llama 3.3-70B、DeepSeek V3 和 Qwen3-30B-A3B 現已推出,可立即部署並可擴展至全球超過 65 個資料中心。此方案支援即時全球推理、可預測的按代幣付費定價,並能提升開發者的工作效率。

阿卡什 自人工智慧應用興起以來,一直支援早期人工智慧開發者和新創公司。 OpenAIAkash 的初步進展。過去幾年,Akash 核心團隊與 brev.dev(已被英偉達收購)、VeniceAI 和 Prime Intellect 等客戶合作,推出了服務數萬用戶的產品。雖然這些早期用戶技術嫻熟,能夠自行管理基礎設施,但反饋表明他們更傾向於透過 API 訪問,而無需處理底層系統。基於這些回饋,我們開發了特定用戶的非公開 AkashML 版本,並創建了 AkashChat 和 AkashChat API,為 AkashML 的公開發布鋪平了道路。

AkashML 將降低 LLM 部署成本高達 85%

新方案解決了開發者和企業在部署大型語言模型時遇到的幾個關鍵挑戰。傳統的雲端解決方案通常成本高昂,例如,為 70 億語言模型預留實例,每百萬個輸入和每個輸出的成本分別超過 0.13 美元和 0.40 美元,而 AkashML 利用市場競爭將成本降低了 70% 到 85%。營運成本是另一個障礙,因為打包模型、配置 vLLM 或 TGI 伺服器、管理分片以及處理故障轉移可能需要數週的工程時間;AkashML 透過以下方式簡化了這些流程: OpenAI-相容的API,無需更改程式碼即可在幾分鐘內完成遷移。

對於需要長距離傳輸請求的集中式平台而言,延遲也是一個令人擔憂的問題。 AkashML 將流量導向距離最近的 80 多個全球資料中心,實現低於 200 毫秒的回應時間,滿足即時應用的需求。廠商鎖定限制了模型和資料的靈活性和控制權;AkashML 僅使用開放模型,例如: LlamaDeepSeek 和 Qwen 等技術使用戶能夠完全掌控版本控制、升級和治理。透過跨去中心化 GPU 資源的自動擴展,有效緩解了可擴展性挑戰,保持 99% 的正常運作時間,消除容量限制,同時避免價格突然飆升。

AkashML旨在實現快速上手和立竿見影的投資回報。新用戶將獲得價值100美元的AI代幣額度,可透過Playground或API體驗所有支援的模型。單一API介面支援所有模型,並可與LangChain、Haystack等框架或自訂代理程式整合。定價透明且與模型相關,避免意外成本。高影響力部署可透過Akash Star獲得曝光,即將推出的網路升級(包括BME、虛擬機器和保密計算)可望進一步降低成本。早期用戶報告稱,支出降低了三到五倍,全球延遲始終低於200毫秒,形成成本降低、使用量增加和提供者參與度擴大的良性循環。

入門非常簡單:使用者可以在 playground.akashml.com 上建立免費帳戶,只需不到兩分鐘即可完成,並可瀏覽模型庫,包括 Llama 3.3-70B、DeepSeek V3 和 Qwen3-30B-A3B,並可提前查看定價。其他型號可直接向平台申請。使用者可以在 Playground 或透過 API 立即測試型號,透過控制面板監控使用情況、延遲和費用,並透過區域鎖定和自動擴展功能將其擴展到生產環境。

集中式推理成本高昂、速度緩慢且限制眾多,而 AkashML 提供完全託管、API 優先、去中心化的頂級開源模型存取方式,價格由市場決定。開發者和企業若想將推理成本降低高達 80%,即可立即開始使用平台。

0

免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。

PoolX: 鎖倉獲得新代幣空投
不要錯過熱門新幣,且APR 高達 10%+
立即參與