Akash Network Meluncurkan AkashML, Layanan Inferensi AI Terkelola Penuh Pertama pada GPU Terdesentralisasi
Singkatnya Akash Network telah meluncurkan AkashML, menawarkan OpenAI‑API yang kompatibel, akses latensi rendah global, dan penghematan biaya hingga 85% untuk penerapan LLM.
Jaringan Akash , sebuah pasar komputasi awan, telah memperkenalkan layanan inferensi AI terkelola penuh pertama yang beroperasi sepenuhnya pada GPU terdesentralisasi. Layanan baru ini menghilangkan tantangan operasional yang sebelumnya dihadapi pengembang dalam mengelola inferensi tingkat produksi di Akash, memberikan keunggulan komputasi awan terdesentralisasi tanpa perlu manajemen infrastruktur langsung.
Saat peluncuran, AkashML menawarkan inferensi terkelola untuk model termasuk Llama 3.3-70B, DeepSeek V3, dan Qwen3-30B-A3B, tersedia untuk penerapan langsung dan dapat diskalakan di lebih dari 65 pusat data di seluruh dunia. Pengaturan ini memungkinkan inferensi global instan, harga bayar per token yang dapat diprediksi, dan meningkatkan produktivitas pengembang.
Akash telah mendukung pengembang dan startup AI awal sejak munculnya aplikasi AI setelah OpenAIKemajuan awal. Selama beberapa tahun terakhir, tim Akash Core telah berkolaborasi dengan klien seperti brev.dev (diakuisisi oleh Nvidia), VeniceAI, dan Prime Intellect untuk meluncurkan produk yang melayani puluhan ribu pengguna. Meskipun para pengguna awal ini mahir secara teknis dan dapat mengelola infrastruktur sendiri, umpan balik menunjukkan preferensi untuk akses berbasis API tanpa mengelola sistem yang mendasarinya. Masukan ini memandu pengembangan versi AkashML non-publik untuk pengguna tertentu, serta pembuatan AkashChat dan API AkashChat, yang membuka jalan bagi peluncuran publik AkashML.
AkashML Pangkas Biaya Penerapan LLM Hingga 85%
Solusi baru ini mengatasi beberapa tantangan utama yang dihadapi pengembang dan bisnis saat menerapkan model bahasa berskala besar. Solusi cloud tradisional seringkali membutuhkan biaya tinggi, dengan instance yang dicadangkan untuk model 70 miliar melebihi $0.13 per input dan $0.40 per output per juta token, sementara AkashML memanfaatkan persaingan pasar untuk mengurangi biaya hingga 70-85%. Overhead operasional juga menjadi kendala, karena pengemasan model, konfigurasi server vLLM atau TGI, pengelolaan shard, dan penanganan failover dapat memakan waktu rekayasa berminggu-minggu; AkashML menyederhanakan hal ini dengan OpenAI-API yang kompatibel yang memungkinkan migrasi dalam hitungan menit tanpa perubahan kode.
Latensi juga menjadi perhatian pada platform terpusat yang mengharuskan permintaan melintasi jarak jauh. AkashML mengarahkan lalu lintas ke pusat data global terdekat dari lebih dari 80 pusat data, memberikan waktu respons di bawah 200 ms yang sesuai untuk aplikasi waktu nyata. Penguncian vendor membatasi fleksibilitas dan kendali atas model dan data; AkashML hanya menggunakan model terbuka seperti Llama, DeepSeek, dan Qwen, memberi pengguna kendali penuh atas versi, peningkatan, dan tata kelola. Tantangan skalabilitas diatasi dengan penskalaan otomatis di seluruh sumber daya GPU terdesentralisasi, mempertahankan waktu aktif 99% dan menghilangkan batasan kapasitas sekaligus menghindari lonjakan harga yang tiba-tiba.
AkashML dirancang untuk onboarding cepat dan ROI langsung. Pengguna baru menerima kredit token AI senilai $100 untuk bereksperimen dengan semua model yang didukung melalui Playground atau API. Satu titik akhir API mendukung semua model dan terintegrasi dengan kerangka kerja seperti LangChain, Haystack, atau agen khusus. Harga transparan dan spesifik model, mencegah biaya tak terduga. Penerapan berdampak tinggi dapat memperoleh eksposur melalui Akash Star, dan peningkatan jaringan mendatang termasuk BME, mesin virtual, dan komputasi rahasia diharapkan dapat mengurangi biaya lebih lanjut. Pengguna awal melaporkan pengurangan biaya tiga hingga lima kali lipat dan latensi global yang konsisten di bawah 200 ms, menciptakan siklus penguatan biaya yang lebih rendah, peningkatan penggunaan, dan perluasan partisipasi penyedia.
Memulai itu mudah: pengguna dapat membuat akun gratis di playground.akashml.com dalam waktu kurang dari dua menit, menjelajahi perpustakaan model termasuk Llama 3.3-70B, DeepSeek V3, dan Qwen3-30B-A3B, serta melihat harga di muka. Model tambahan dapat diminta langsung dari platform. Pengguna dapat menguji model secara instan di Playground atau melalui API, memantau penggunaan, latensi, dan pengeluaran melalui dasbor, serta meningkatkan skala ke produksi dengan penyematan wilayah dan penskalaan otomatis.
Inferensi terpusat masih mahal, lambat, dan terbatas, sementara AkashML menyediakan akses terdesentralisasi yang sepenuhnya terkelola, mengutamakan API, dan ke model-model terbuka terbaik dengan harga yang disesuaikan dengan pasar. Pengembang dan bisnis yang ingin mengurangi biaya inferensi hingga 80% dapat segera mulai menggunakan platform ini.
Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai
Klarna Pindah ke Pembayaran Digital Dengan Rencana untuk Stablecoin yang Didukung Dolar
Pertahanan Bitcoin $82K Selama Akhir Pekan Mengkonfirmasi ‘Fraktal 2021’ Bullish – Analis
Kripto Favorit Baru Wall Street? ETF XRP Melihat Rekor $622 Juta dalam Arus Masuk Kumulatif
