Bitget App
交易「智」變
快速買幣市場交易合約BOT理財跟單
探討AI Layer1:尋找鏈上DeAI的沃土

探討AI Layer1:尋找鏈上DeAI的沃土

BlockBeatsBlockBeats2025/06/10 12:00
作者:BlockBeats

本文詳細介紹了包括Sentient、Sahara AI、Ritual 、Gensyn、Bittensor以及0G在內的六個AI Layer1代表項目,系統梳理賽道的最新進展,剖析項目發展現狀,並探討未來趨勢。

原文標題:《Biteye & PANews 聯合發布 AI Layer 1 研報:尋找鏈上 DeAI 的沃土》
原文作者:@anci_hu49074 (Biteye)、@Jesse_meta (Biteye)、@lviswang (Biteye)、0xja 。 LLM 在各行各業展現出前所未有的能力,大大拓展了人類的想像空間,甚至在部分場景下展現了替代人類勞動的潛力。然而,這些技術的核心卻牢牢掌握在少數中心化科技巨頭手中。憑藉著雄厚的資本和對高昂算力資源的把控,這些公司建立起了難以逾越的壁壘,使絕大多數開發者和創新團隊難以與之抗衡。


探討AI Layer1:尋找鏈上DeAI的沃土 image 0來源:BONDAI 趨勢分析報告


同時,在 AI 快速演進的初期,社會輿論往往聚焦於技術帶來的隱私和便利性,而對保護保護的初期,社會輿論往往相對於技術帶來的隱私和便利性。長期來看,這些問題將深刻影響 AI 產業的健康發展和社會接受度。如果無法妥善解決,AI「向善」或「向惡」的爭議將愈發突出,而中心化巨頭在逐利本能驅動下,往往缺乏足夠的動力去主動應對這些挑戰。


區塊鏈技術憑藉其去中心化、透明和抗審查的特性,為 AI 產業的永續發展提供了新的可能性。目前,Solana、Base 等主流區塊鏈上已經湧現出眾多「Web3 AI」應用。但深入分析可以發現,這些專案仍存在諸多問題:一方面,去中心化程度有限,關鍵環節和基礎設施仍依賴中心化雲端服務,meme 屬性過重,難以支撐真正意義上的開放生態;另一方面,與 Web2 世界的 AI 產品相比,鏈上 AI 在模型能力、數據利用和應用場景等方面仍顯局限,創新深度和廣度有待提升。


要真正實現去中心化 AI 的願景,使區塊鏈能夠安全、高效、民主地承載大規模 AI 應用,並在性能上與中心化方案相抗衡,我們需要設計一條專為 AI 量身打造的 Layer1 區塊鏈。這將為 AI 的開放創新、治理民主和資料安全提供堅實基礎,推動去中心化 AI 生態的繁榮發展。


AI Layer 1 的核心特性


AI Layer 1 作為一條專為 AI 應用量身定制的區塊鏈,其底層架構和性能設計緊密圍繞 AI 任務的需求,旨在高效支撐可持續發展與繁榮。具體而言,AI Layer 1 應具備以下核心能力:


高效的激勵與去中心化共識機制


AI Layer 1 的核心在於建構一個開放的算力、儲存等資源的共享網路。與傳統區塊鏈節點主要聚焦於帳本記帳不同,AI Layer 1 的節點需要承擔更複雜的任務,不僅要提供算力、完成 AI 模型的訓練與推理,還需貢獻儲存、資料、頻寬等多樣化資源,從而打破中心化巨頭在 AI 基礎設施上的壟斷。這對底層共識和激勵機制提出了更高要求:AI Layer 1 必須能夠準確評估、激勵並驗證節點在 AI 推理、訓練等任務中的實際貢獻,以實現網路的安全性與資源的高效分配。唯有如此才能保證網路的穩定與繁榮,並有效降低整體算力成本。


卓越的高效能與異質任務支援能力


AI 任務,尤其是 LLM 的訓練與推理,對運算效能和平行處理能力提出了極高的要求。更進一步,鏈上 AI 生態往往還需支援多樣化、異質的任務類型,包括不同模型結構、資料處理、推理、儲存等多元場景。 AI Layer 1 必須在底層架構上針對高吞吐、低延遲和彈性並行等需求進行深度優化,並預設對異構運算資源的原生支援能力,確保各種 AI 任務都能高效運行,實現從「單一型任務」到「複雜多元生態」的平滑擴展。


可驗證性與可信任輸出保障


AI Layer 1 不僅要防止模型作惡、資料竄改等安全隱患,更要從底層機制確保 AI 輸出結果的可驗證性和對齊性。透過整合可信任執行環境(TEE)、零知識證明(ZK)、多方安全計算(MPC)等尖端技術,平台能夠讓每個模型推理、訓練和資料處理過程都可以獨立驗證,確保 AI 系統的公正性和透明度。同時,這種可驗證性還能幫助使用者明確 AI 輸出的邏輯和依據,實現「所得即所願」,提升使用者對 AI 產品的信任與滿意度。


資料隱私保護


AI 應用經常涉及用戶敏感數據,在金融、醫療、社交等領域,數據隱私保護尤其關鍵。 AI Layer 1 應在保障可驗證性的同時,採用基於加密的資料處理技術、隱私運算協定和資料權限管理等手段,確保資料在推理、訓練及儲存等全過程中的安全性,有效防止資料外洩和濫用,消除使用者在資料安全方面的擔憂。


強大的生態承載與開發支援能力


作為 AI 原生的 Layer 1 基礎設施,平台不僅要具備技術上的領先性,還需為開發者、節點運營商、AI 服務提供商等生態參與者提供完善的開發工具、激勵措施和 SDK、節點運營商、AI 服務提供者等生態參與者提供完善的開發工具、激勵措施和應用機制。透過持續優化平台可用性和開發者體驗,促進豐富多元的 AI 原生應用程式落地,實現去中心化 AI 生態的持續繁榮。


基於上述背景與期望,本文將詳細介紹包括 Sentient、Sahara AI、Ritual 、Gensyn、Bittensor 以及 0G 在內的六個 AI Layer1 代表項目,系統梳理賽道的最新進展,剖析項目發展現狀,並探討未來趨勢。


Sentient:建構忠誠的開源去中心化 AI 模型


專案概述


Sentient 是一個開源協定平台,正在打造一條 AI Layer1 區塊鏈 (23 月。和區塊鏈技術,建構去中心化的人工智慧經濟體。其核心目標是透過「OML」框架(開放、可獲利、忠誠)解決中心化 LLM 市場中的模型歸屬、調用追蹤和價值分配問題,使 AI 模型實現鏈上所有權結構、調用透明化和價值分潤化。 Sentient 的願景是讓任何人都能建構、協作、擁有並將 AI 產品貨幣化,從而推動一個公平、開放的 AI Agent 網路生態。


Sentient Foundation 團隊匯集了全球頂尖的學術專家、區塊鏈創業家和工程師,致力於建立一個社群驅動、開源且可驗證的 AGI 平台。核心成員包括普林斯頓大學教授 Pramod Viswanath 和印度科學研究所教授 Himanshu Tyagi,分別負責 AI 安全性與隱私保護,同時由 Polygon 聯合創始人 Sandeep Nailwal 主導區塊鏈戰略與生態佈局。團隊成員背景橫跨 Meta、Coinbase、Polygon 等知名企業,以及普林斯頓大學、印度理工學院等頂尖高校,涵蓋 AI/ML、NLP、電腦視覺等領域,協力推動專案落地。


作為 Polygon 聯合創始人 Sandeep Nailwal 的二次創業項目,Sentient 在成立之初便自帶光環,擁有豐富的資源、人脈和市場認知度,為項目發展提供了強大背書。 2024 年年中,Sentient 完成了 8,500 萬美元的種子輪融資,由 Founders Fund、Pantera 和 Framework Ventures 領投,其他投資機構包括 Delphi、Hashkey 和 Spartan 等數十家知名 VC。


設計架構與應用層


1、基建層


核心架構


Sient 架構系統的核心架構與 AI 管道的核心架構與 AIline)(p.>

Sient 架構系統和 AI 架構系統的核心架構(AIline)。兩部分組成:


AI 管道是開發和訓練「忠誠 AI」工件的基礎,包含兩個核心過程:


· 資料策劃(Data Curation):由社群驅動的資料選擇過程,用於模型的對齊。

· 忠誠度訓練(Loyalty Training):確保模型保持與社區意圖一致的訓練過程。


區塊鏈系統為協議提供透明性和去中心化控制,確保 AI 工件的所有權、使用追蹤、收益分配與公平治理。具體架構分為四層:


· 儲存層:儲存模型權重與指紋註冊資訊;

· 分送層:授權合約控制模型呼叫入口;

· 存取層:透過權限證明使用者是否授權;

·激勵層:支付合約給


探討AI Layer1:尋找鏈上DeAI的沃土 image 1

Sentient 系統工作流程圖


OML 模型架構


OML 模式架構


Apabled Sentient 提出的核心理念,旨在為開源 AI 模型提供明確的所有權保護和經濟激勵機制。透過結合鏈上技術和 AI 原生加密學,具有以下特點:


· 開放性: 模型必須開源,程式碼和資料結構透明,以便於社群復現、稽核和改進。

· 貨幣化: 每次模型呼叫都會觸發收益流,鏈上合約會會將收益分配給訓練者、部署者和驗證者。

· 忠誠性: 模型歸屬於貢獻者社區,升級方向和治理由 DAO 決定,使用和修改受到加密機制的控制。


AI 原生加密學(AI-native Cryptography)


AI 原生加密是利用 AI 模型的連續性、低維流形結構與模型可微特性,發展出「可驗證但不可驗證但不可移除的安全機制」。其核心技術為:


· 指紋嵌入:在訓練時插入一組隱藏的 query-response 鍵值對形成模型唯一簽署;

· 所有權驗證協定:透過第三方偵測器(Prover)以 query 提問形式驗證指紋是否保留;

許可調用機制:調用前需取得模型所有者簽發的「權限憑證”,系統再據此授權模型對該輸入解碼並返回準確答案。


這種方式可在無重加密成本的情況下實現「基於行為的授權呼叫 + 所屬驗證」。


模型確權與安全執行框架


Sentient 目前採用的即為 Melange 混合安全:以指紋確權、TEE 執行、鏈上合約分潤結合。其中指紋方法為 OML 1.0 實作主線,強調「樂觀安全(Optimistic Security)」思想,即預設合規、違規後可偵測並懲罰。


指紋機制 是 OML 的關鍵實現,它透過嵌入特定的「問題 - 回答」對,讓模型在訓練階段產生獨特的簽章。透過這些簽名,模型擁有者可以驗證歸屬,防止未經授權的複製和商業化。該機制不僅保護了模型開發者的權益,也為模型的使用行為提供了可追蹤的鏈上記錄。


此外,Sentient 推出了 Enclave TEE 運算框架,利用可信任執行環境(如 AWS Nitro Enclaves)確保模型只回應授權請求,防止未經許可的存取和使用。雖然 TEE 依賴硬體且存在一定安全隱患,但其高效能和即時性優勢使其成為目前模型部署的核心技術。


未來,Sentient 計畫引入零知識證明(ZK)和全同態加密(FHE)技術,進一步增強隱私保護和可驗證性,為 AI 模型的去中心化部署提供更成熟的解決方案。


探討AI Layer1:尋找鏈上DeAI的沃土 image 2

OML 提出五種可驗證性方法的評估和對比


2、應用層


2、應用層 Chat、開源模型 Dobby 系列以及 AI Agent 框架


Dobby 系列模型


SentientAGI 已發布多個「Dobby」系列模型,主要基於 Llama 模型,聚焦自由、去中心化和加密貨幣支持的價值觀。其中,leashed 版本風格較為約束、理性,適合穩健輸出的場景;unhinged 版本偏向自由大膽,具備更豐富的對話風格。 Dobby 模型已被整合到多個 Web3 原生專案中,例如 Firework AI 和 Olas,使用者也可以在 Sentient Chat 中直接呼叫這些模型進行互動。 Dobby 70B 是有史以來最去中心化的模型,擁有超過 60 萬名所有者(持有 Dobby 指紋 NFT 的人同時也是該模型的共同擁有者)。


Sentient 也計劃推出 Open Deep Search,這是一個試圖超越 ChatGPT 和 Perplexity Pro 的搜尋代理系統。該系統結合了 Sensient 的搜尋功能(如查詢重述、文件處理)與推理代理,透過開源 LLM(如 Llama 3.1 和 DeepSeek)提升搜尋品質。在 Frames Benchmark 上,其效能已超過其他開源模型,甚至接近部分閉源模型,展現了強大的潛力。


Sentient Chat:去中心化聊天與鏈上 AI Agent 整合


Sentient Chat 是一個去中心化聊天平台,結合了開源大型語言模型(如 Dobby 系列)與先進的推理代理框架,支援多代理聊天平台,平台內嵌的推理代理可以完成搜尋、運算、程式碼執行等複雜任務,為使用者提供高效率的互動體驗。此外,Sentient Chat 還支援鏈上智能體的直接集成,目前包括占星學 Agent Astro247、加密分析 Agent QuillCheck、錢包分析 Agent Pond Base Wallet Summary 和靈修指引 Agent ChiefRaiin。使用者可以根據需求選擇不同的智慧代理進行互動。 Sentient Chat 將作為代理商的分發和協調平台使用。使用者的提問可以被路由到任意一個已整合的模型或代理,以提供最優的回應結果。


AI Agent 框架


Sentient 提供兩大 AI Agent 框架:


· Sentient Agent Framework:一個輕量級的開源網路框架框架支援建構具備感知、規劃、執行和回饋閉環的智能體,適合鏈下 Web 任務的輕量化開發。


· Sentient Social Agent:針對社群平台(如 Twitter、Discord 和 Telegram)開發的 AI 系統,支援自動化互動與內容產生。透過多智能體協作,該框架能夠理解社交環境,並為使用者提供更智慧的社交體驗,同時可與 Sentient Agent Framework 集成,進一步擴展其應用場景。


生態和參與方式


Sentient Builder Program 目前設有 100 萬美元資助計劃,旨在鼓勵開發者利用其開發套件,構建通過 Sentient Agent API 接入、並可在 Sentient Chat 生態中運行的 AI Agent。 Sentient 官網公佈的生態夥伴涵蓋 Crypto AI 多個領域的專案方團隊,如下


探討AI Layer1:尋找鏈上DeAI的沃土 image 3

Sentient 生態圖


此外,Sentient 生態圖


此外, waitlist。根據官方消息,已有超過 50,000 名用戶和 1,000,000 次查詢記錄。 Sentient Chat 的候補名單上有 2,000,000 名用戶等待加入。


挑戰與展望


Sentient 從模型端入手,致力於解決當前大規模語言模型(LLM)面臨的不對齊、不可信等核心問題,透過 OML 框架和開源技術,為模型提供明確的所有權結構、使用追蹤和行為約束,區塊結構、使用追蹤和行為約束,區塊結構、使用追蹤和行為約束,區塊結構、使用追蹤和行為約束,區塊結構、使用了模型。


憑藉 Polygon 聯合創始人 Sandeep Nailwal 的資源支持,以及頂級 VC 和行業夥伴的背書,Sentient 在資源整合和市場關注度上處於領先地位。不過在目前市場對高估值專案逐漸祛魅的背景下,Sentient 能否交付真正具有影響力的去中心化 AI 產品,將是其能否成為去中心化 AI 所有權標準的重要考驗。這些努力不僅關乎 Sentient 自身的成功,也對整個產業的信任重建與去中心化發展有深遠影響。


Sahara AI:打造人人參與的去中心化 AI 世界


項目概述


Sahara AI 是一個為 AI × Web3 新範式而生的去中心化專案透過去中心化帳本技術,實現資料集、模型和智慧 Agent 的鏈上管理與交易,確保資料和模型的主權與可追溯性。同時,Sahara AI 引入透明、公平的激勵機制,讓所有貢獻者,包括資料提供者、標註員和模型開發者,都能在協作過程中獲得不可篡改的收入回報。平台還透過一個無需許可的「版權」系統,保護貢獻者對 AI 資產的所有權和歸屬,並鼓勵開放共享和創新。


Sahara AI 提供從資料收集、標註到模型訓練、AI Agent 創建、AI 資產交易等服務的一站式解決方案,涵蓋整個 AI 生命週期,成為滿足 AI 開發需求的全方位生態平台。其產品品質和技術能力已獲得微軟、亞馬遜、麻省理工學院(MIT)、Motherson 集團和 Snap 等全球頂尖企業和機構的高度認可,展現出強大的產業影響力和廣泛的適用性。


Sahara 不只是一個科學研究項目,而是由第一線技術創業家與投資人共同推動、具備落地導向的深科技平台。其核心架構有可能成為 AI × Web3 應用落地的關鍵支點。 Sahara AI 已獲得 Pantera Capital、Binance Labs、紅杉中國等頭部機構累計 4,300 萬美元的投資支持;由南加州大學終身教授、2023 年度三星研究員 Sean Ren 和前 Binance Labs 投資總監 Tyler Zhou 共同創立,核心團隊成員來自史丹佛大學、加州大學分校、微軟、尖頭、Binance 等學術界累積了核心團隊成員來自史丹佛大學、加州大學分校、微軟、尖頭、Binance 等學術界累積了的核心團隊成員來自史丹佛大學、加州大學分校、微軟、尖頭、Binance 等學術界。


設計架構


探討AI Layer1:尋找鏈上DeAI的沃土 image 4

Sahara AI 架構圖


1、基礎圖層鏈上層用於 AI 資產的註冊與變現,2. 鏈下層用於運行 Agents 與 AI 服務。由鏈上系統與鏈下系統協同構成,負責 AI 資產的註冊、確權、執行與收益分配,支撐整個 AI 生命週期的可信任協作。


Sahara 區塊鏈與 SIWA 測試網(鏈上基礎設施)


SIWA 測試網是 Sahara 區塊鏈的第一個公開版本。 Sahara 區塊鏈協議(SBP)是 Sahara 區塊鏈的核心,這是一套專為 AI 構建的智慧合約系統,實現了 AI 資產的鏈上所有權、溯源記錄與收益分配。核心模組包括資產註冊系統、所有權協議、貢獻追蹤、權限管理、收益分配、執行證明等,建構出以 AI 為導向的「鏈上作業系統」。


AI 執行協定(鏈下基礎設施)


為支撐模型運作與呼叫的可信任性,Sahara 同時建構了鏈下的 AI 執行協定體系與同可信執行環境(TEE),支援 Agent 創建、部署、運作與同可信執行環境(TEE),支援 Agent 創建、部署、運作與協同執行環境(TEE),支援 Agent 創建、部署、運作與協同執行環境(TEE),支援 Agent 創建、部署、運作與協同執行環境(TEE),支援 Agent 建立協同開發。每次任務執行均自動產生可驗證記錄,並上傳鏈上,確保全流程可追溯、可驗證。鏈上系統負責註冊、授權與所有權記錄,鏈下 AI 執行協議則支援 AI Agent 的即時運行與服務互動。由於 Sahara 跨鏈相容,因此基於 Sahara AI 的基礎設施構建的應用可以部署在任何鏈上,甚至鏈下。


2、應用層


Sahara AI 資料服務平台(DSP)


資料服務平台(DSP ID)是 Sahara 應用層的基礎模組,任何人都可以透過 Sahara 應用層的基礎模組,任何人都可以透過 Sahara 應用層的 Sahara 應用程式層來不同接受資料任務,參與資料標註、去雜訊與審核,並獲得鏈上積分獎勵(Sahara Points)作為貢獻憑證。此機制不僅保障了資料溯源與權屬,同時推動「貢獻 - 獎勵 - 模型最佳化」形成閉環。目前進行了第四季活動,這也是一般使用者可以參與貢獻的主要方式。


在此基礎上,為了鼓勵用戶提交高品質的數據與服務,透過介紹雙重激勵機制,不僅可獲得 Sahara 提供的獎勵,還能獲得生態夥伴的額外回報,實現一次貢獻、多方收益。以資料貢獻者為例,一旦其資料被模型重複調用或用於產生新應用,即永續獲取效益,真正參與 AI 價值鏈。這項機制不僅延長了數據資產的生命週期,也為協作與共建注入了強大動能,例如,BNB Chain 上的 MyShell 就透過 DSP 眾包生成定制數據集,提升模型性能,用戶則獲得 MyShell 代幣激勵,形成雙贏閉環。


AI 企業可以基於資料服務平台來眾包客製化資料集,透過發布專門的資料任務,快速從位於全球的資料標註者獲得回應。 AI 企業不再只依賴傳統中心化資料供應商,就可大規模取得高品質標註資料。


Sahara AI Developer Platform


Sahara AI Developer Platform 是一個面向開發者與企業的一站式 AI 建構與營運平台,提供從資料擷取、模型訓練到部署執行與資產變現的全支援支援。使用者可以直接呼叫 Sahara DSP 中的高品質資料資源,將其用於模型的訓練與微調;處理完成的模型可在平台內進行組合、註冊並上架至 AI 市場,透過 Sahara 區塊鏈實現所有權確權與靈活授權。


Studio 同時整合去中心化運算能力,支援模型訓練與 Agent 的部署運行,確保計算過程的安全性與可驗證性。開發者還可將關鍵資料和模型存儲,進行加密託管和權限控制,防止未授權存取。透過 Sahara AI AI Developer Platform,開發者無需自建基礎設施,即可更低門檻建置、部署並商業化 AI 應用,並透過協議化機制全面融入鏈上 AI 經濟體系。


AI Markerplace


Sahara AI Marketplace 是模型、資料集與 AI Agent 的去中心化資產市場。它不僅支持資產的註冊、交易與授權,更建構了一套透明且可追蹤的收益分配機制。開發者可以將自己建立的模型或收集的資料集註冊為鏈上資產,設定靈活的使用授權與分潤比例,系統將根據呼叫頻率自動執行收益結算。數據貢獻者也能因其數據被重複調用而持續獲得分潤,實現「持續變現」。


這一市場與 Sahara 區塊鏈協議深度整合,所有資產交易、調用、分潤記錄都將鏈上可驗證,確保資產歸屬明確、收益可追蹤。借助該市場,AI 開發者不再依賴傳統 API 平台或中心化模型託管服務,而是擁有自主、可程式化的商業化路徑。


3、生態層


Sahara AI 的生態層串連了資料提供者、AI 開發者、消費者、企業用戶與跨鏈合作夥伴。無論是想貢獻資料、開發應用、使用產品,或是推動企業內部 AI 化,都能發揮作用並找到收益模式。資料標註者、模型開發團隊與算力供應者可以將其資源註冊為鏈上資產,透過 Sahara AI 的協議機制進行授權與分潤,讓每一次被使用的資源都能自動獲得回報。開發者則能透過一站式的平台串接資料、訓練模型、部署 Agent,在 AI Marketplace 中直接商業化他們的成果。


一般使用者無需技術背景,也可參與資料任務、使用 AI App、收藏或投資鏈上資產,成為 AI 經濟的一部分。對企業來說,Sahara 提供從資料眾包、模型開發到私人部署與收益變現的全流程支援。除此之外,Sahara 支援跨鏈部署,任何公鏈生態都可使用 Sahara AI 提供的協議與工具來建構 AI 應用、接入去中心化 AI 資產,實現與多鏈世界的兼容與擴展。這使得 Sahara AI 不只是單一平台,更是一個鏈上 AI 生態的底層協作標準。


生態進展


自專案啟動以來,Sahara AI 不僅提供一套 AI 工具或算力平台,還在在鏈上重建 AI 的生產與分配秩序,打造一個人人都能參與、確權、貢獻與共享的去中心化網絡。正因如此,Sahara 選擇以區塊鏈作為底層架構,為 AI 建立可驗證、可追蹤、可分配的經濟體系。


圍繞著這一核心目標,Sahara 生態已取得顯著進展。在尚處於私測階段的情況下,平台已累積產生超 320 萬個鏈上帳戶,每日活躍帳戶穩定在 140 萬以上,顯示出用戶參與度與網路活力。其中,超過 20 萬名用戶透過 Sahara 資料服務平台參與了資料標註、訓練與驗證任務,並獲得鏈上激勵獎勵。同時,仍有數百萬用戶在等待加入白名單,印證了市場對去中心化 AI 平台的強烈需求與共識。


在企業合作方面,Sahara 已與微軟、亞馬遜、麻省理工學院(MIT)等全球領導機構建立合作,為其提供客製化的資料擷取與標註服務。企業可透過平台提交具體任務,由 Sahara 全球資料標註者組成的網路高效執行,實現規模化眾包,執行效率、靈活性、多樣化需求支援方面的優勢。


探討AI Layer1:尋找鏈上DeAI的沃土 image 5

Sahara AI 生態圖


參與方式


SIWA 將分四個階段推出。目前第一階段為鏈上資料所有權打基礎,貢獻者可以將自己的資料集註冊並代幣化。目前對外公開開放,不需要白名單。需要確保上傳的是對 AI 有用的數據,抄襲或不當內容可能會被處理。第二階段實現資料集與模型的鏈上變現。第三階段開放測試網,並開源協定。第四階段推出 AI 資料流註冊、溯源追蹤與貢獻證明機制。


探討AI Layer1:尋找鏈上DeAI的沃土 image 6

SIWA 測試網


除了 SIWA 測試網,現階段普通用戶可以參與 Sahara Legends,透過遊戲化任務來了解 Sahara Legends,透過遊戲化任務的功能。完成任務後收穫守護者碎片,最後可以合成一個 NFT 記錄對網路的貢獻。


或在數據服務平台標註數據,貢獻有價值數據,以及擔任審核員。 Sahara 後續計畫和生態夥伴合作發布任務,讓參與者除了獲得 Sahara 的積分外還可獲得生態夥伴的誘因。第一次雙重獎勵任務和 Myshell 一起舉辦,用戶完成任務可獲得 Sahara 的積分和 Myshell 的代幣獎勵。根據路線圖,Sahara 預計於 2025 年 Q3 推出主網,屆時可能也會迎來 TGE。


挑戰與展望


Sahara AI 讓 AI 不再侷限於開發人員或大的 AI 公司,讓 AI 更加開放包容和民主化。對於一般用戶,無須程式設計知識即參與貢獻並獲得收益,Sahara AI 打造的是一個人人都能參與的去中心化 AI 世界。對於技術開發人員,Sahara AI 打通 Web2 和 Web3 開發路徑,提供了去中心化但靈活強大的開發工具和高品質的資料集。


對於 AI 基礎設施提供者,Sahara AI 提供了模型、資料、算力與服務的去中心化變現新路徑。 Sahara AI 不只做公鏈基礎設施,還下場做核心應用,利用區塊鏈技術促進 AI 版權系統的發展。現階段 Sahara AI 已經和多個頂尖 AI 機構達成合作,取得初步成功。後續是否成功,也應觀察主網上線後的性能表現,生態產品發展和採用率以及經濟模型能否在 TGE 後驅動用戶繼續為數據集做貢獻。


Ritual:創新設計突破異質任務等 AI 核心難題


專案概述


Ritual 旨在解決當前 AI 產業中存在的中心化、封閉性和信任問題,為 AI提供透明的驗證機制、公平的計算資源分配以及靈活的模型適配能力;允許任何協議、應用或智能合約以幾行代碼的形式集成可驗證的 AI 模型;並透過其開放的架構和模組化的設計,推動 AI 在鏈上的廣泛應用,打造一個開放、安全且可持續的 AI 生態系統。


Ritual 於 2023 年 11 月完成 2500 萬美元 A 輪融資,由 Archetype 領投,Accomplice 等多家機構及知名天使投資人參與,展示了市場認可和團隊的強大社交能力。創辦人 Niraj Pant 和 Akilesh Potti 皆為前 Polychain Capital 合夥人,曾主導投資 Offchain Labs、EigenLayer 等業界巨頭,展現出深刻洞見與判斷力。團隊在密碼學、分散式系統、AI 等領域經驗豐富,顧問陣容包括 NEAR 和 EigenLayer 等計畫創辦人,彰顯了其強大的背景與潛力。


設計架構


從 Infernet 到 Ritual Chain


Ritual Chain 是從 Infernet 節點網路自然過渡而來的第二代產品,代表了 Ritual 網路在運算中心化的第二個節點。 Infernet 是 Ritual 推出的第一階段產品,於 2023 年正式上線。這是一個為異質運算任務設計的去中心化預言機網絡,旨在解決中心化 API 的局限性,讓開發者能夠更自由、穩定地調用透明且開放的去中心化 AI 服務。


Infernet 採用了靈活簡單的輕量化框架,由於其易用性和高效性,在推出後迅速吸引了 8,000 多個獨立節點加入。這些節點具備多樣化的硬體能力,包括 GPU 和 FPGA,能夠為 AI 推理和零知識證明生成等複雜任務提供強大的運算能力。然而,為了保持系統的簡潔性,Infernet 放棄了一些關鍵功能,例如透過共識協調節點或整合穩健的任務路由機制。這些限制使 Infernet 難以滿足更廣泛的 Web2 和 Web3 開發者的需求,從而促使 Ritual 推出了更全面和強大的 Ritual Chain。


Ritual Chain 是專為 AI 應用設計的下一代 Layer 1 區塊鏈,旨在彌補 Infernet 的局限性,並為開發者提供更穩健和高效的開發環境。透過 Resonance 技術,Ritual Chain 為 Infernet 網路提供了簡潔且可靠的定價和任務路由機制,大幅優化了資源分配效率。此外,Ritual Chain 基於 EVM++ 框架,這是對以太坊虛擬機(EVM)的向後相容擴展,具備更強大的功能,包括預編譯模組、原生調度(scheduling)、內建帳戶抽象(Account Abstraction, AA)以及一系列先進的以太坊改進提案(EIPs)。這些特性共同建構了一個功能強大、靈活且高效的開發環境,為開發者提供了全新的可能性。


探討AI Layer1:尋找鏈上DeAI的沃土 image 7

Ritual Chain 工作流程圖


預編譯 Sidecars


預編譯 Sidecars

的設計提升了系統的擴展性和靈活性,讓開發者以容器化方式建立自訂功能模組,而無需修改底層協定。這種架構不僅顯著降低了開發成本,也為去中心化應用提供了更強大的運算能力。


具體來說 Ritual Chain 透過模組化架構將複雜計算從執行客戶端解耦,並以獨立的 Sidecars 形式實現。這些預編譯模組能夠有效率地處理複雜的運算任務,包括 AI 推理、零知識證明產生和可信任執行環境(TEE)操作等。


原生調度(Native Scheduling)


原生調度解決了任務定時觸發和條件執行的需求。傳統區塊鏈通常依賴中心化的第三方服務(如 keeper)來觸發任務執行,但這種模式存在中心化風險和高額成本。 Ritual Chain 透過內建調度器徹底擺脫了對中心化服務的依賴,開發者可以直接在鏈上設定智慧合約的入口點和回調頻率(callback frequency)。區塊生產者會維護掛起調用的映射表,在產生新區塊時優先處理這些任務。結合 Resonance 的資源動態分配機制,Ritual Chain 能夠有效率且可靠地處理運算密集型任務,為去中心化 AI 應用提供了穩定的保障。


技術創新


Ritual 的核心技術創新確保了其在性能、驗證和擴展性上的領先地位,為鏈上 AI 應用提供了強大的支持。


1. Resonance:優化資源分配


Resonance 是一個優化區塊鏈資源分配的雙邊市場機制,解決異質交易的複雜性。隨著區塊鏈交易從簡單轉帳演變為智慧合約、AI 推理等多樣化形式,現有的費用機制(如 EIP-1559)難以高效匹配用戶需求與節點資源。 Resonance 透過引入 Broker 和 Auctioneer 兩個核心角色,實現了用戶交易與節點能力之間的最佳匹配:

Broker 負責分析用戶交易的費用意願和節點的資源成本函數,以實現交易與節點之間的最佳匹配,提升計算資源的利用率。 Auctioneer 透過雙邊拍賣機制組織交易費用分配,確保公平性和透明性。節點根據自身硬體能力選擇交易類型,而使用者則可根據優先條件(如速度或成本)提交交易需求。


這個機制顯著提高了網路的資源利用效率和使用者體驗,同時透過去中心化的拍賣流程進一步增強了系統的透明性和開放性。


探討AI Layer1:尋找鏈上DeAI的沃土 image 8

Resonance 機制下:Auctioneer 根據 Broker 的分析,將適當的任務分配給節點


2. Symphony:提升驗證效率


Symphony 則專注於提升驗證效率,解決傳統區塊鏈「重複執行」模式在處理和驗證複雜計算任務時的低效問題。 Symphony 基於「執行一次,多次驗證」(EOVMT)的模型,透過將計算與驗證流程分離,大幅減少重複計算帶來的效能損耗。計算任務由指定節點執行一次,計算結果透過網路廣播,驗證節點利用非互動證明(succinct proofs)確認結果的正確性,而無需重複執行計算。


Symphony 支援分散式驗證,將複雜任務分解為多個子任務,由不同的驗證節點並行處理,從而進一步提升驗證效率,並確保隱私保護和安全性。 Symphony 對可信任執行環境(TEE)和零知識證明(ZKP)等證明系統高度相容,為快速確認交易和隱私敏感的運算任務提供彈性支援。這項架構不僅顯著降低了重複運算帶來的效能開銷,也確保了驗證過程的去中心化和安全性。


探討AI Layer1:尋找鏈上DeAI的沃土 image 9

Symphony 將複雜任務分解為多個子任務,由不同的驗證節點並行處理


3.Tune:


· 水印技術:透過權重空間水印、資料水印或函數空間水印嵌入標記,即使模型公開,其歸屬仍可被驗證。特別是函數空間浮水印能夠在無需存取模型權重的情況下,透過模型輸出驗證歸屬,從而實現更強的隱私保護和穩健性。

· 零知識證明:在模型微調過程中引入隱藏數據,用於驗證模型是否被篡改,同時保護模型創建者的權益。


此工具不僅為去中心化 AI 模型市場提供了可信賴的來源驗證,也顯著提升了模型的安全性和生態透明性。


生態發展


Ritual 目前處於私有測試網階段,對於普通用戶來說參與機會較少;開發者可以申請並參與官方推出的 Altar 和 Realm 激勵計劃,加入 Ritual 的 AI 生態建設,獲得來自官方的全棧技術支持以及資金支持。


目前官方公佈了一批來自 Altar 計劃的原生應用:


· Relic:基於機器學習的自動做市商(AMM),透過 Ritual 的基礎設施動態調整流動性池參數,實現費用和底層池的最佳化為基礎的優化的鏈上交易自動化工具,為使用者提供流暢自然的 Web3 互動體驗;

· Tithe: AI 驅動的借貸協議,透過動態優化借貸池和信用評分,支援更廣泛的資產類型。


此外,Ritual 也與多個成熟計畫展開了深度合作,推動去中心化 AI 生態的發展。例如,與 Arweave 的合作為模型、數據和零知識證明提供了去中心化的永久存儲支援;透過與 StarkWare 和 Arbitrum 的集成,Ritual 為這些生態系統引入了原生的鏈上 AI 能力;此外,EigenLayer 提供的再質押機制為 Ritual 的證明市場增加了主動驗證服務,進一步增強了網絡的驗證中心。


挑戰與展望


Ritual 的設計從分配、激勵、驗證等關鍵環節入手,解決了去中心化 AI 面臨的核心問題,同時透過 vTune 等工具實現了模型的可驗證性,突破了模型開源化的矛盾組織


當下 Ritual 處於早期階段,主要針對模型的推理階段,產品矩陣正在從基礎設施擴展至模型市場、L2 即服務(L2aaS)以及 Agent 框架等領域。由於當下區塊鏈仍處於私有測試階段,Ritual 提出的先進的技術設計方案仍有待大規模公開落地,需要持續關注。期待隨著技術的不斷改進和生態的逐步豐富,Ritual 能夠成為去中心化 AI 基礎設施的重要組成部分。


Gensyn:解決去中心化模型訓練的核心問題


項目概述


在人工智慧加速演進、算力資源愈發稀缺的時代背景下,Gensyn 正試圖重塑整個範式訓練的整個底層。


傳統 AI 模型訓練流程,算力幾乎被壟斷在少數幾家雲端運算巨頭手中,訓練成本高昂、透明度低,阻礙了中小團隊與獨立研究者的創新步伐。而 Gensyn 的願景正是打破這個「中心化壟斷」結構,它主張將訓練任務「下沉」至全球範圍內無數個具備基本運算能力的裝置上——無論是 MacBook、遊戲級 GPU,還是邊緣設備、閒置伺服器,都可接入網路、參與任務執行、獲取報酬。


Gensyn 成立於 2020 年,專注於建構去中心化 AI 運算基礎架構。早在 2022 年,團隊便首次提出了意圖在技術和製度層面重新定義 AI 模型的訓練方式:不再依賴封閉的雲平台或巨型伺服器集群,而是將訓練任務下沉至全球範圍內的異構計算節點之中,構建一個無需信任的智能計算網絡。


2023 年,Gensyn 對其願景進行了進一步拓展:建構一個全球連結、開源自治、無授權門檻的 AI 網路——任何具備基本運算能力的設備,都可成為這個網路中的一份子。其底層協定基於區塊鏈架構設計,不僅具備激勵機制與驗證機制的可組合性。


Gensyn 自創立以來,累計獲得 5,060 萬美元支持,投資人涵蓋 a16z、CoinFund、Canonical、Protocol Labs、Distributed Global 等共 17 家機構。其中,2023 年 6 月由 a16z 領投的 A 輪融資被廣泛關注,標誌著去中心化 AI 領域開始進入主流 Web3 創投的視野。


團隊核心成員背景也頗具分量:共同創辦人 Ben Fielding 曾在牛津大學攻讀理論電腦科學,具備深厚的技術研究背景;另一位共同創辦人 Harry Grieve 則長期參與去中心化協議的系統設計與經濟建模,為 Gensyn 的架構設計與激勵機制提供了堅實支撐。


設計架構


目前去中心化人工智慧系統的發展正面臨三大核心技術瓶頸:執行(Execution)、驗證(Verification)與通訊(Communication)。這些瓶頸不僅限制了大模型訓練能力的釋放,也限制了全球算力資源的公平整合與高效利用。 Gensyn 團隊在系統性研究基礎上,提出了三項具代表性的創新機制——RL Swarm、Verde 以及 SkipPipe,針對上述問題分別構建了解決路徑,推動了去中心化 AI 基礎設施從概念走向落地。


一、執行挑戰:如何讓碎片化設備協同高效訓練大模型?


目前,大語言模型的效能提升主要依賴「堆疊規模」策略:更大的參數量、更廣的資料集以及更長的訓練週期。但這也顯著推高了運算成本——超大模型的訓練往往需要拆分至成千上萬個 GPU 節點,這些節點之間還需進行高頻的資料通訊與梯度同步。在去中心化場景下,節點分佈地域廣泛、硬體異質、狀態波動性高,傳統的中心化調度策略難以發揮作用。


為因應這項挑戰,Gensyn 提出 RL Swarm,一種點對點的強化學習後訓練系統。其核心思路是將訓練過程轉換為分散式協作博弈。此機制分為「共享—批判—決策」三階段:首先,節點獨立完成問題推理並公開共享結果;隨後,各節點對同儕答案進行評價,從邏輯性與策略合理性等角度提出回饋;最後,節點基於群體意見修正自身輸出,產生更穩健的答案。此機制有效融合個體計算與群體協同,尤其適用於數學與邏輯推理等需要高精度和可驗證性的任務。實驗顯示,RL Swarm 不僅提升了效率,也顯著降低了參與門檻,具備良好的擴展性和容錯性。


探討AI Layer1:尋找鏈上DeAI的沃土 image 10

RL Swarm 的「共享—批判—決策」三階段強化學習訓練系統


二階段強化學習訓練系統


二階段強化學習訓練系統


二階段強化學習訓練:如何驗證不可信供應者的計算結果是否正確?


在去中心化訓練網絡中,「任何人都可提供算力」是優勢也是風險。問題在於:如何在無需信任的前提下驗證這些計算是否真實有效?


傳統方式如重計算或白名單審核存在明顯限制-前者成本極高,不具可擴展性;後者又排除了「長尾」節點,損害網路開放性。 Gensyn 為此設計了 Verde,一套專為神經網路訓練驗證場景構建的輕量級仲裁協議。


Verde 的關鍵思想是「最小可信裁定」:當驗證者懷疑供應者訓練結果有誤時,仲裁合約只需重算計算圖中首個有爭議的操作節點,而無需重演整個訓練過程。這大幅降低了驗證負擔,同時確保了至少一方誠實時的結果正確性。為解決不同硬體間浮點非確定性問題,Verde 也配套開發了 Reproducible Operators(可複現運算元庫),強制對常見數學運算如矩陣乘法設定統一執行順序,從而實現跨裝置的位元級一致輸出。這項技術顯著提升了分散式訓練的安全性與工程可行性,是目前去信任驗證體系中的重要突破。


整個機制建立在訓練者記錄關鍵中間狀態(即檢查點)的基礎上,多個驗證者被隨機指派去復現這些訓練步驟,從而判斷輸出的一致性。一旦有驗證者復算結果與訓練者存在分歧,系統不會粗暴地重跑整個模型,而是透過網路仲裁機制精確定位二者在計算圖中首次發生分歧的操作,僅對該操作進行重播比對,從而以極低的開銷實現爭議裁決。透過這種方式,Verde 在無需信任訓練節點的前提下,既保證了訓練過程的完整性,又兼顧了效率與可擴展性,是為分散式 AI 訓練環境量身定制的驗證框架。


探討AI Layer1:尋找鏈上DeAI的沃土 image 11

Vader 的工作流程


三、通訊挑戰:如何減少節點間高頻同步帶來的網路瓶頸?


在傳統的分散式訓練中,模型要麼被完整複製,要麼被按層拆分(流水線並行),二者都要求節點間進行高頻同步。特別是在管線並行中,一個微批次必須嚴格地依序經過每一層模型,導致只要某個節點延遲,就會阻塞整個訓練流程。


Gensyn 針對此問題提出 SkipPipe:一種支援跳躍執行與動態路徑調度的高容錯流水線訓練系統。 SkipPipe 引入了「跳躍比例(skip ratio)」機制,讓某些微批資料在特定節點負載過高時跳過部分模型層,同時使用調度演算法動態選擇目前最優計算路徑。實驗顯示,在地理分佈廣、硬體差異大、頻寬受限的網路環境下,SkipPipe 訓練時間可降低高達 55%,並在高達 50% 節點故障率時仍能維持僅 7% 的損失,展現出極強的韌性和適應性。


參與方式


Gensyn 的公共測試網已於 2025 年 3 月 31 日上線,目前仍處於其技術路線圖中的初期階段(Phase 0),其功能重心集中在 RL Swarm 的部署與驗證。 RL Swarm 是 Gensyn 的第一個應用場景,圍繞著強化學習模型的協作訓練進行設計。每一個參與節點都將其行為綁定至鏈上身份,貢獻過程被完整記錄,這為後續激勵分配和可信計算模型提供了驗證基礎。


探討AI Layer1:尋找鏈上DeAI的沃土 image 12

Gensyn 的節點排名


早期測試階段的硬體門檻相對友好:Mac 用戶使用 M 晶片用戶使用 M.以上內存,即可部署本地 Swarm 節點。系統運作後透過網頁登入信箱(建議 Gmail)完成驗證流程,並可選擇是否綁定 HuggingFace 的 Access Token,以啟動更完整的模型能力。


挑戰與展望


目前 Gensyn 專案最大的不確定性,在於其測試網尚未涵蓋所承諾的完整技術堆疊。 Verde 與 SkipPipe 等關鍵模組仍處於待整合狀態,也讓外界對其架構落地能力保持觀望。官方給出的解釋是:測試網將分階段推進,每一階段解鎖新的協議能力,優先驗證基礎設施的穩定性與擴展性。首階段以 RL Swarm 為起點,未來將逐步拓展至預訓練、推理等核心場景,最終過渡至支援真實經濟交易的主網部署。


儘管測試網啟動之初採用了相對保守的推進節奏,但值得關注的是,僅一個月後,Gensyn 即推出了支持更大規模模型與復雜數學任務的新 Swarm 測試任務。此舉在某種程度上回應了外界對其開發節奏的質疑,也展現出團隊在局部模組推進上的執行效率。


然而,問題也隨之而來:新版任務對硬體提出了極高門檻,建議配置包括 A100、H100 等頂級 GPU(80GB 顯存),這對於中小節點而言幾乎不可達,也與 Gensyn 所強調的“開放接入、去中心化張力”的初衷關係。算力的集中化趨勢,若未有效引導,或將影響網路的公平性和去中心化治理的可持續性。


接下來,若 Verde 與 SkipPipe 能順利集成,將有助於提升協定的完整性與協同效率。但 Gensyn 能否在性能和去中心化之間找到真正的平衡,仍有待測試網更長時間、更廣泛的實踐檢驗。眼下,它已初步顯現出潛力,也暴露出挑戰,而這正是一個早期基礎設施項目最真實的狀態。


Bittensor:去中心化 AI 網路的創新與發展


專案概述


Bittensor 是一個結合區塊鏈與人工智慧的開創性專案,由機器 Jacob Shaeves 和 Ala 199197 月創立的開創性市場,由機器 Jacob Shaeves 和 Ala 199197 月創立。兩位創辦人均具備人工智慧和分散式系統的深厚背景。計畫白皮書的署名作者 Yuma Rao 被認為是團隊核心技術顧問,為專案注入了密碼學與共識演算法的專業視野。


該專案旨在透過區塊鏈協議整合全球算力資源,建構一個不斷自我優化的分散式神經網路生態系統。這個願景將運算、數據、儲存和模型等數位資產轉化為智慧價值流,建構全新經濟形態,確保 AI 發展紅利的公平分配。有別於 OpenAI 等中心化平台,Bittensor 建立了三大核心價值支柱:


· 打破資料孤島:利用 TAO 代幣激勵體系促進知識共享與模型貢獻

· 市場的品質評估:篩選品質:篩選

·Pet 網路效應放大器: 參與者成長與網路價值呈指數級正相關,形成良性循環


在投資佈局方面,Polychain Capital 自 2019 年起孵化 Bittensor,目前持有價值約 2 億美元的 TAO 代幣;Daosor5 持有約價值 5000 萬美元的 TAO 生態系統的早期。 2024 年,Pantera Capital 和 Collab Currency 透過策略性投資進一步加碼。同年 8 月,灰階集團將 TAO 納入其去中心化 AI 基金,標誌著機構投資者對專案價值的高度認可和長期看好。


設計架構與運作機制


網路架構


Bittensor 建構了一個由四個協同層級組成的精密網路架構:


· 區塊層

·區塊層框架搭建,作為網路的信任基礎,負責記錄狀態變化與代幣發行。系統每 12 秒產生新區塊並按規則發行 TAO 代幣,確保網路共識與激勵分配。

· 神經元層(Neuron):作為網路的運算節點,神經元運行各類 AI 模型提供智慧服務。每個節點透過精心設計的設定檔明確聲明其服務類型與介面規範,實現功能模組化和即插即用。

· 突觸層(Synapse):網路的通訊橋樑,動態優化節點間連結權重,形成類神經網路結構,保障資訊高效傳遞。突觸也內建經濟模型,神經元間的互動與服務調用需支付 TAO 代幣,形成價值流轉閉環。

· 元圖層(Metagraph):作為系統的全局知識圖譜,持續監控與評估各節點的貢獻價值,為整個網路提供智慧導向。元圖透過精確計算確定突觸權重,進而影響資源分配、獎勵機制以及節點在網路中的影響力。


探討AI Layer1:尋找鏈上DeAI的沃土 image 13

Bittensor 的網絡框架


Yuma 共識機制


Yuma 共識機制


Yuma 共識機制


Yuma 共識機制


Yuma 共識機制



· 人工評分:驗證者對礦工輸出質量進行主觀評估

· Fisher 資訊矩陣:客觀量化節點對網絡整體的主觀


這種混合機制“客觀量化”的“客觀性測量”


子網路(Subnet)架構和 dTAO 升級


每個子網路專注於特定 AI 服務領域,如文字生成、圖像識別等,獨立運行但與主區塊鏈 subtensor 保持連接,形成高度靈活的模組化擴展架構。 2025 年 2 月,Bittensor 完成了具有里程碑意義的 dTAO(Dynamic TAO)升級,這個系統將每個子網路轉變為獨立經濟單元,透過市場需求訊號智慧調控資源分配。其核心創新是子網代幣(Alpha 代幣)機制:


· 運作原理:參與者透過質押 TAO 取得各子網路發行的 Alpha 代幣,這些代幣代表了對特定子網服務的市場認可與支援力道資源

分配邏輯代幣的市場價格作為衡量子網需求強度的關鍵指標,初始狀態下各子網 Alpha 代幣價格一致,每個流動性池內僅有 1 個 TAO 和 1 個 Alpha 代幣。隨著交易活躍度提升和流動性注入,Alpha 代幣價格動態調整,TAO 的分配按子網代幣價格佔比智能分配,市場熱度高的子網獲得更多資源傾斜,實現真正的需求驅動型資源優化配置


探討AI Layer1:尋找鏈上DeAI的沃土 image 14


dTAO 升級顯著提升了生態活力與資源利用效率,子網代幣市場總市值已達 5 億美元,展現出強勁的成長動能。


探討AI Layer1:尋找鏈上DeAI的沃土 image 15

Bittensor 子網 alpha代幣價值


生態進展與應用案例


主網發展歷程


Bittensor 網路經歷了三個關鍵架構

· 2023 年 10 月:「Revolution」升級引進子網路架構,實現功能模組化

· 2025 年 2 月:完成 dTAO 升級,建立市場驅動的資源分配機制


子網生態呈現爆炸性成長:截至 2025 年 6 月,已有 119 個專業子網,預計年內可能突破 200 個。


探討AI Layer1:尋找鏈上DeAI的沃土 image 16

Bittensor 子網數量


生態項目類型多元化,涵蓋 AI 代理(如 Tatsu)、


生態項目類型多元化,涵蓋 AI 代理程式(如 Tatsu)、分析市場(如同在 Bet)與金融深度融合的創新生態。


代表性子網路生態專案


· TAOCAT:TAOCAT 是 Bittensor 生態中的原生 AI 代理,直接建構在子網路上,為使用者提供資料驅動的決策工具。利用 Subnet 19 的大語言模型、Subnet 42 的即時數據以及 Subnet 59 的 Agent Arena,提供市場洞察和決策支援。獲得 DWF Labs 投資,納入其 2,000 萬美元 AI 代理基金,並在 binance alpha 上線。


· OpenKaito:由 Kaito 團隊在 Bittensor 上推出的子網,旨在建立去中心化的加密產業搜尋引擎。目前已索引 5 億網頁資源,展示了去中心化 AI 處理大量資料的強大能力。與傳統搜尋引擎相比,其核心優勢在於減少商業利益幹擾,提供更透明、中立的資料處理服務,為 Web3 時代資訊取得提供新典範。


· Tensorplex Dojo:由 Tensorplex Labs 開發的 52 號子網,專注於透過去中心化平台眾包高品質人類生成資料集,鼓勵用戶透過資料標註賺取 TAO 代幣。 2025 年 3 月,YZi Labs(原 Binance Labs)宣布投資 Tensorplex Labs,以支持 Dojo 和 Backprop Finance 的發展。


· CreatorBid:運行在 Subnet 6,是一個結合 AI 和區塊鏈的創作平台,與 Olas 和其他 GPU 網路(如 io.net)集成,支援內容創作者和 AI 模型開發。


科技與產業合作


Bittensor 在跨領域合作方面取得了突破性進展:


· 與 Hugging Face 建立深度模型整合通道,實現 50 個主流晶片製造商的高性能晶片製造商 4p> 20p> 20p> Cerebras 聯合發布 BTLM-3B 模型,累計下載量突破 16 萬次

· 2025 年 3 月與 DeFi 巨頭 Aave 達成戰略合作,共同探索 rsTAO 作為優質借貸抵押品的應用場景


參與方式


· 挖礦:部署礦工節點生產高品質數位商品(如 AI 模型服務),根據貢獻品質取得 TAO 獎勵

· 開發:利用 Bittensor SDK 和 CLI 工具構建創新應用、實用工具或全新子網,積極參與生態建設

·使用服務:透過網路的圖像交易:參與子網資產化代幣的市場交易,捕捉潛在價值成長機會


探討AI Layer1:尋找鏈上DeAI的沃土 image 17

子網 alpha 代幣給參與者的分配


儘管展現出卓越潛力,但作為前沿技術探索,仍面臨多維度挑戰。在技術層面,分散式 AI 網路面臨的安全威脅(如模型竊取與對抗攻擊)比中心化系統更為複雜,需持續優化隱私運算與安全防護方案;經濟模型方面,早期存在通膨壓力,子網代幣市場波動性較高,需警惕可能的投機泡沫;同時監管環境上,雖然 SEC 已將 TAO 歸納為效用型代幣框架,但全球安全性代幣的區域擴展;平台激烈競爭,去中心化解決方案需在使用者體驗和成本效益方面證明其長期競爭優勢。


隨著 2025 年減半週期臨近,Bittensor 發展將聚焦四大策略方向:進一步深化子網專業化分工,提升垂直領域應用的服務品質與效能;加速與 DeFi 生態的深度整合,借助新化子網專業化分工,提升垂直領域應用的服務品質與效能;加速與 DeFi 生態的深度整合,藉助新推出的 EVM 相容性拓展智慧合約應用邊界邊界邊界將經濟體平穩地從未來 100 階段逐步轉移到 AlphaTAO 控制權;代幣,推動治理去中心化進程;同時積極拓展與其他主流公鏈的互通性,擴大生態邊界與應用場景。這些協同發展的戰略舉措將共同推動 Bittensor 向「機器智慧市場經濟」的宏偉願景穩步邁進。


0G:以儲存為基礎的模組化 AI 生態系統


專案概述


0G 是一個專為 AI 應用設計的模組化 Layer 1 公鏈,旨在為情境和高運算基礎和高運算中心化的資源透過模組化架構,0G 實現了共識、儲存、運算和資料可用性等核心功能的獨立優化,支援動態擴展,能夠高效處理大規模 AI 推理和訓練任務。


創始團隊由 Michael Heinrich(CEO,曾創立融資超 1 億美元的 Garten)、Ming Wu(CTO,微軟研究員,Conflux 聯合創始人)、Fan Long(Conflux 聯合創始人)和 Thomas Yao(CBO,Web3 聯合創始人)、Fan Long(Conflux 聯合創始人)和 Thomas Yao(CBO,Web3 投資


融資方面,0G Labs 完成 3500 萬美元 Pre-seed 輪和 4000 萬美元 Seed 輪,總計 7500 萬美元,投資方包括 Hack VC、Delphi Ventures 和 Animoca Brands 等。此外,0G Foundation 獲得 2.5 億美元代幣購買承諾、3,060 萬美元公開節點銷售和 8,888 萬美元生態基金。


設計架構


1、0G Chain


0G Chain 的目標是打造最快的模組化 AI 公鍊,其模組化資料可優化網路、執行和架構這種設計為系統在應對複雜的 AI 應用場景時提供了卓越的效能和靈活性。以下是 0G Chain 的三大核心特色:


模組化可擴充性(Modular Scalability for AI)


0G 採用橫向可擴展的架構,能夠高效處理大規模的資料工作流程。其模組化設計將資料可用性層(DA 層)與資料儲存層分離,為 AI 任務(如大規模訓練或推理)的資料存取和儲存提供了更高的效能和效率。


0G 共識(0G Consensus)


0G 的共識機制由多個獨立的共識網絡組成,這些網絡可以根據需求動態擴展。隨著資料量的指數級增長,系統吞吐量也能同步提升,支援從 1 個到數百甚至上千個網路的擴展。這種分散式架構不僅提升效能,還能確保系統的靈活性和可靠性。


共享質押(Shared Staking)


驗證者需在以太坊主網上質押資金,為所有參與的 0G 共識網絡提供安全保障。如果任一 0G 網路發生可罰事件,驗證者在以太坊主網上的質押資金將被削減。此機制將以太坊主網的安全性擴展至所有 0G 共識網絡,確保整個系統的安全性和穩健性。


0G Chain 具備 EVM 相容性,確保以太坊、Layer 2 Rollup 或其他鏈的開發者可以輕鬆整合 0G 的服務(如資料可用性和儲存),無需遷移。同時 0G 也正在探索支援 Solana VM、Near VM 和比特幣相容性,以便 AI 應用程式擴展至更廣泛的用戶群。


2、0G 儲存(0G Storage)


0G Storage 是一個高度最佳化的分散式儲存系統,專為去中心化應用程式和資料密集情境設計。其核心透過獨特的共識機制——隨機存取證明(Proof of Random Access, PoRA),激勵礦工儲存和管理數據,從而實現安全性、性能和公平性的平衡。


其架構可分為三層:


· 日誌層(Log Layer):實現非結構化資料的永久存儲,適用於歸檔或資料日誌等用途。

· 鍵值儲存層(Key-Value Layer):管理可變的結構化數據,並支援權限控制,適合動態應用場景。

· 事務處理層(Transaction Layer):支援多使用者的同時寫入,提升協作和資料處理效率。


隨機存取證明(Proof of Random Access, PoRA)是 0G Storage 的關鍵機制,用於驗證礦工是否正確儲存了指定的資料區塊。礦工會週期性地接受挑戰,需提供有效的加密哈希作為證明,類似於工作量證明。為確保公平競爭,0G 對每次挖礦作業的資料範圍限制為 8 TB,避免大規模業者壟斷資源,小規模礦工也能在公平環境中參與競爭。


探討AI Layer1:尋找鏈上DeAI的沃土 image 18

隨機存取證明示意圖


透過糾刪編碼技術,0G Storage 將資料分割成多個冗餘的小片段,並分佈在不同的節點上分佈到不同的片段上。這種設計確保即使部分節點下線或發生故障,資料仍然可以完整恢復,不僅顯著提升了資料的可用性和安全性,還使系統在處理大規模資料時表現出色。此外,資料儲存透過磁區級和資料區塊級的精細化管理,不僅優化了資料存取效率,還增強了礦工在儲存網路中的競爭力。


提交的資料以順序方式組織,這種順序稱為資料流(data flow),可以被理解為日誌條目清單或固定大小資料磁區的序列。在 0G 中,每一塊資料都可以透過一個通用的 偏移量(offset)快速定位,從而實現高效的資料檢索和挑戰查詢。預設情況下,0G 提供一個稱為 主資料流(main flow)的通用資料流,用於處理大部分應用程式場景。同時,系統也支援 專用資料流(specialized flows),這些資料流專門接受特定類別的日誌條目,並提供獨立的連續位址空間,針對不同的應用需求進行最佳化。


透過上述設計,0G Storage 能夠靈活適配多樣化的使用場景,同時保持高效的效能和管理能力,為需要處理大規模資料流的 AI x Web3 應用提供強大的儲存支援。


3、0G 資料可用性(0G DA)


資料可用性(Data Availability, DA)是 0G 的核心元件之一,旨在提供可存取、可驗證且可擷取的資料。這項功能是去中心化 AI 基礎設施的關鍵,例如驗證訓練或推理任務的結果,以滿足使用者需求並確保系統激勵機制的可靠性。 0G DA 透過精心設計的架構和驗證機制,實現了出色的可擴展性和安全性。


0G DA 的設計目標是在確保安全性的同時提供極高的擴展性能。其工作流程主要分為兩個部分:


· 資料儲存通道(Data Storage Lane):資料透過糾刪編碼技術被分割成多個小片段(「資料區塊」),並分散到 0G Storage 網路中的儲存節點上。這種機制有效支援了大規模的資料傳輸,同時確保資料的冗餘性與可恢復性。


· 資料發布通道(Data Publishing Lane):資料的可用性由 DA 節點透過聚合簽章進行驗證,並將結果提交至共識網路。透過這種設計,資料發布僅需要處理少量關鍵資料流,避免了傳統廣播方式中的瓶頸問題,從而顯著提升了效率。


為了確保資料的安全性和高效性,0G DA 使用了一種基於隨機性的驗證方法,結合聚合簽章機制,形成了完整的驗證流程:


· 隨機建構法定小組:透過可驗證隨機函數(Vunction)節點構成法定小組(quorum)。這種隨機選擇方法理論上保證了法定小組的誠實性分佈與整個驗證者集合一致,因此資料可用性用戶端無法與法定小組串通。


· 聚合簽名驗證:法定小組對儲存的資料區塊進行抽樣驗證,並產生聚合簽名,將可用性證明提交到 0G 的共識網路。這種聚合簽章方式大大提升了驗證效率,其效能比傳統以太坊快幾個數量級。


探討AI Layer1:尋找鏈上DeAI的沃土 image 19

0G 的驗證流程


透過上述機制,0G DA 提供了一種高效、擴展性強且安全性有保障的資料可用性解決方案,為去中心化 AI 應用提供了堅實的基礎支援。


4、0G 算力(0G Compute)


0G 運算網路是去中心化框架,旨在為社群提供強大的 AI 運算能力。透過智慧合約,算力提供者可以註冊他們提供的 AI 服務類型(例如模型推理),並為服務設定價格。用戶發送 AI 推理請求後,服務提供者會根據用戶餘額的充足性決定是否回應,從而實現高效的算力分配。


為了進一步優化交易成本和網路效率,服務供應商能夠大量處理多個使用者請求。這種方式有效減少了鏈上結算的次數,降低了頻繁交易帶來的資源消耗。同時,0G 計算網路採用了零知識證明(ZK-Proofs)技術,透過鏈下運算和鏈上驗證,大幅壓縮交易數據,降低鏈上結算成本。結合 0G 的儲存模組,其可擴展的鏈下資料管理機制能夠顯著減少儲存請求追蹤資料鍵的鏈上成本,同時提升儲存和檢索的效率。


目前,0G 的去中心化 AI 網路主要提供 AI 推理服務,並已在效率與成本優化方面展現出優勢。未來,0G 計畫進一步擴展其能力,實現從推理到訓練等更多 AI 任務的全面去中心化,為使用者提供更完善的解決方案。


生態發展


0G 的測試網目前已從 Newton v2 升級到 Galileo v3,根據官網數據,具有 8000 多個驗證者。儲存網路上有 1591 個活躍礦工,目前已處理了 43 萬多個上傳文件,提供了總計 450.72G 的儲存空間。


0G 專案在去中心化 AI 領域的影響力也隨著合作企業的增加和深入不斷擴大,根據官方數據,目前已完成 450 多次集成,涵蓋 AI 算力、數據、模型、框架、infra、DePin 等全面領域。


探討AI Layer1:尋找鏈上DeAI的沃土 image 20

0G 生態圖


同時,0G 基金會也推出了原始價值 8888 萬美元生態基金,用於支持已現出相關項目的原生應用程式


· zer0:AI 驅動的 DeFi 流動性解決方案,提供鏈上流動性優化服務

· H1uman:去中心化的 AI Agent 工廠,創建可擴展的 AI 集成工作流

· Leea Labs:多路 AI Agent 的基礎設施,支援安全性的的代理錢包,自動化管理投資和交易

· Unagi:AI 驅動的鏈上娛樂平台,融合動漫和遊戲的 Web3 體驗

· Rivalz:可驗證的 AI 預言機,為智能合約提供可信的 AI 數據訪問

· Avinasi Labs:專注於長壽研究的專案


參與方式


一般使用者目前可以透過以下方式參與 0G 生態:


· 參與 0G 測試網互動:0G 已推出網頁法測試Guide)領取測試代幣,並在 0G 鏈上的 DApp 上進行互動體驗。

· 參與 Kaito 活動:0G 現已加入 Kaito 平台的內容創作活動,用戶可透過創作並分享與 0G 相關的優質內容(如技術分析、生態進展或 AI 應用案例)參與互動,贏取獎勵。


挑戰與展望


0G 在儲存領域展現了深厚的技術實力,為去中心化儲存提供了一套完整的模組化解決方案,具備出色的可拓展性和經濟性(儲存成本低至 10-11 美元 /TB)。同時,0G 透過資料可用性層(DA)解決了資料的可驗證性問題,為未來的大規模 AI 推理和訓練任務奠定了堅實基礎。這項設計為去中心化 AI 在資料儲存層提供了強有力的支撐,並為開發者創造了最佳化的儲存和檢索體驗。


在性能層面,0G 預計主網 TPS 將提升至 3,000 到 10,000 的範圍,性能較此前實現了 10 倍增長,確保網絡能夠滿足 AI 推理和高頻交易等任務伴隨的高頻的計算需求。然而,在算力市場和模型方面,0G 仍需要長足的建設。目前,0G 的算力業務也局限於 AI 推理服務,在模型訓練任務的支援上,還需要更多的客製化設計和技術創新。作為 AI 發展的核心組成,模型和算力不僅是推動產品升級和大規模應用的關鍵,也是 0G 實現其成為最大 AI Layer 1 生態系統目標的必經之路。


總結


當前現狀:多元切入,面臨挑戰


回顧以上的六個 AI Layer1 項目,它們各自選擇了不同的切入點,圍繞 AI 資產、算力、模型、儲存化等核心要素,探索去中心基礎設施與生態建構的路徑:


· Sentient:聚焦去中心化模型的研發,推出 Dobby 系列,強調模型的可信、對齊與忠誠,底層鏈開發方面仍在持續推進階段,將實現模型與鏈的深度融合。

· Sahara AI:以 AI 資產所有權保護為核心,首階段著力於資料的確權與流通,致力於為 AI 生態提供可信賴的資料基礎。

· Ritual:圍繞去中心化算力在推理方面的高效落地方案,強化區塊鏈本身的功能,提升系統的靈活性和可擴展性,助力 AI 原生應用發展。

· Gensyn:致力於解決去中心化模型訓練難題,透過技術創新降低大規模分散式訓練的成本,為 AI 算力共享與民主化提供可行路徑。

· Bittensor:較為成熟的子網平台,透過代幣激勵和去中心化治理,率先建立起豐富的開發者和應用生態,是去中心化 AI 的早期典範。

· 0G:以去中心化儲存為切入點,聚焦 AI 生態中資料儲存與管理難題,逐步拓展到更全面的 AI 基礎架構與應用服務。


探討AI Layer1:尋找鏈上DeAI的沃土 image 21

專案對比和總結


整體來看,這些專案既有發展技術路線的差異,也有生態策略的互補,共同互補的互補發展中心,共同去發展中心。但不可否認的是,整個賽道仍處於早期探索階段。雖然許多前瞻性的願景和藍圖被提出,但實際開發進度和生態體系建設仍需要時間沉澱,許多關鍵基礎設施和創新應用也有待落地。


如何吸引和激勵更多的算力、儲存等基礎節點加入網絡,是當下亟需突破的核心問題。正如比特幣網路經歷了長達十幾年的發展,才逐步獲得主流市場的認可,去中心化 AI 網路也需要持續擴展節點規模,才能滿足大量 AI 任務對算力的巨大需求。也只有當網路中的算力、儲存等資源達到一定的豐富度,才能有效降低使用成本,並推動算力的普惠化,最終實現去中心化 AI 的宏偉願景。


此外,鏈上 AI 應用在創新性方面依然存在不足。目前不少產品仍以 Web2 模式為藍本進行簡單遷移,缺乏與區塊鏈原生機制深度融合的創新設計,未能充分展現去中心化 AI 的獨特優勢。這些現實挑戰提醒我們,產業的持續發展不僅需要技術層面的突破,更離不開使用者體驗的提升和整個生態系統的不斷改進。


持續發展:AI Layer1 和 DeAI 優質專案不斷湧現


除了以上我們深入介紹的專案外,在時代的大趨勢下,還有不少新的 AI Layer1 和 DeAI 值得我們關注。 (由於篇幅限制,這裡先進行精要介紹,可以關注我們持續追蹤更多 AI 賽道的投研內容)


Kite AI


Kite AI 基於其核心共識機制「Proof of Attributed Intelgence」(PPoAI),打造了一個適合區塊的 Layer 1 鏈相容的生態系統,旨在確保資料提供者、模型開發者以及 AI Agent 創作者在 AI 價值創造中的貢獻能夠被透明記錄並獲得公正回報,從而打破由少數科技巨頭壟斷的 AI 資源格局。目前 Kite AI 將發展聚焦在 C 端應用層,並透過子網路架構和交易市場等形式,確保 AI 資產的開發、確權與變現。


Story


圍繞開放智慧財產權(IP)打造的 AI Layer 1,為創作者和開發者提供一套全流程工具,幫助他們在鏈上註冊、追蹤、授權、管理和變現各種內容 IP,無論是視訊、音訊、文字或 AI 作品。 Story 讓使用者將原創內容鑄造成 NFT,並內建靈活授權和分潤機制,讓使用者可以進行二次創作和商業合作,同時確保所有權和收益分配透明可查。


Vana


Vana 是專為「使用者資料變現與 AI 訓練」所建構的新一代資料底層 AI Layer 1。它跳脫了大公司壟斷數據的限制,讓個人能真正擁有、管理並分享自己的數據。使用者可透過「資料 DAO」(使用者共管、分享並獲益於 AI 訓練資料的去中心化自治組織),在保留資料所有權的前提下,將社交、健康、消費等資料匯集後用於 AI 訓練,並參與分紅。此外,Vana 在設計上重視隱私與安全,並採用隱私運算與加密驗證技術保護使用者的資料安全。


Nillion


Nillion 是一個專注於資料隱私和安全計算的「盲運算網路」,為開發者和企業提供了一套隱私增強技術(如多方安全計算 MPC、同態加密、零知識證明等),可實現在不解密原始資料的這讓諸如 AI、去中心化金融(DeFi)、醫療、個人化應用等場景能夠更安全地處理高價值和敏感訊息,而不必擔心資料外洩風險。目前,Nillion 生態已支援包括 AI 隱私運算、個人化智能體、私有知識庫等眾多創新應用,吸引了 Virtuals、NEAR、Aptos、Arbitrum 等合作夥伴。


Mira Network


Mira Network 是一個專為 AI 輸出做「去中心化驗證」的創新網絡,旨在為自主 AI 打造可信賴的驗證層。 Mira 的核心創新採用整合評估技術在後台同時運行多個不同的語言模型,將 AI 產生的結果細分為具體斷言後交由分散式模型節點獨立驗證,只有當絕大多數模型達成共識並認定內容為「事實」時才輸出給使用者。透過這種多模型共識機制,Mira 將單一模型 25% 的幻覺率顯著降低至僅 3%,相當於錯誤率降低 90% 以上。 Mira 拋棄了對中心化大機構或單一大模型的依賴,採用分散式節點和經濟激勵機制,成為眾多 Web2 和 Web3 AI 應用的可驗證基礎設施層,真正實現從 AI 副駕駛,向具備自主決策能力且可信的 AI 系統躍遷。 ​​​​​​​​​​​​​​​​


Prime Intellect


Prime Intellect 是一個聚焦在去中心化 AI 訓練和算力基礎設施的平台,致力於整合全球計算資源,推動開源 AI 模型的協同訓練。其核心架構包括點對點的算力租賃市場和開放的訓練協議,允許任何人將閒置硬件貢獻到網絡,用於大模型訓練與推理,從而緩解了傳統 AI 高度集中、門檻高且資源浪費的問題。同時,Prime Intellect 開發了開源分散式訓練框架(如 OpenDiLoco),支援數十億參數大模型的跨地域高效訓練,並在演算法創新與特殊賽道深耕,例如基於元基因組的 METAGENE-1 模型和數學推理導向的 INTELLECT-MAT​​H 專案。 2025 年,Prime Intellect 也推出了 SYNTHETIC-1 計劃,利用眾包與強化學習,打造全球最大開源推理與數學程式碼驗證資料集。


未來展望:開放與共贏的去中心化 AI


儘管挑戰重重,鏈上去中心化 AI 依然擁有廣闊的發展前景和變革潛力。隨著底層技術逐步成熟、各專案持續兌現承諾,去中心化 AI 的獨特優勢可望日益凸顯,AI Layer1 們將有望實現以下願景:


· 算力、數據和模型的民主化共享,打破技術寡頭壟斷,讓全球個體、企業和組織都能無門參與 AI 創新。

· AI 資產的確權流通與可信賴治理,推動資料、模型等核心資產在鏈上自由流通與交易,保障所有者的收益,形成健康的開放生態。

· AI 輸出更可信、可追溯、可對齊,為 AI 的安全、可控發展提供堅實支撐,有效降低「AI 作惡」的風險。

· 產業應用的普惠落地,在金融、醫療、教育、內容創作等領域釋放 AI 的巨大價值,讓 AI 以去中心化方式真正造福社會。


隨著越來越多的 AI Layer1 計畫不斷推進,我們期待去中心化 AI 的目標能夠早日實現,也希望有更多開發者、創新者和參與者加入,共同建構一個更開放、多元和永續的 AI 生態。


原文連結

‧ 驗證:運行驗證:質押:持有並質押 TAO 支援優質驗證者節點,根據驗證者表現獲取被動收益

0

免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。

PoolX: 鎖倉獲得新代幣空投
不要錯過熱門新幣,且APR 高達 10%+
立即參與

您也可能喜歡

比特幣跌破104,000美元,以太幣隨以色列空襲伊朗後下滑

快訊:比特幣下跌4.7%,跌破104,000美元,以太幣重挫10%,至2,497美元。據媒體報導,以色列國防部長約阿夫·加蘭特在該國對伊朗發動空襲後宣布進入緊急狀態。

The Block2025/06/13 02:17
比特幣跌破104,000美元,以太幣隨以色列空襲伊朗後下滑

XRP Ledger 在 Circle 上市一週後引入 USDC

重點速覽:Circle 的機構級穩定幣發行平台 Circle Mint 以及面向開發者的 Circle API 現已支援 XRPL 上的 USDC,進一步增強了該網路上 USDC 的流動性。

The Block2025/06/12 23:34
XRP Ledger 在 Circle 上市一週後引入 USDC

前哈里斯與歐巴馬顧問大衛·普洛夫表示,加密貨幣是「重要槓桿」

快訊 Coinbase 宣布大衛·普洛夫(David Plouffe)加入公司全球諮詢委員會。加密貨幣產業在 2024 年 11 月的選舉中發揮了重要作用。

The Block2025/06/12 23:34
前哈里斯與歐巴馬顧問大衛·普洛夫表示,加密貨幣是「重要槓桿」

今日焦點:GameStop 因與比特幣相關的 17.5 億美元融資大跌 25%,Bessent 預計美國穩定幣市場將突破 2 兆美元,更多要聞

GameStop於週三深夜提交申請,擬發行17.5億美元零息可轉換債券,並可選擇額外增發2.5億美元,資金或將用於進一步購買比特幣。美國財政部長Scott Bessent在國會聽證會上表示,若有立法支持,預計到2028年美元穩定幣市場規模將超過2兆美元。

The Block2025/06/12 23:34
今日焦點:GameStop 因與比特幣相關的 17.5 億美元融資大跌 25%,Bessent 預計美國穩定幣市場將突破 2 兆美元,更多要聞