Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnPlazaMehr
Neues Paradigma der KI-Datenökonomie: DINs Ambitionen und Node-Verkäufe aus der Perspektive modularer Datenvorverarbeitung

Neues Paradigma der KI-Datenökonomie: DINs Ambitionen und Node-Verkäufe aus der Perspektive modularer Datenvorverarbeitung

GO2MARS的WEB3研究GO2MARS的WEB3研究2025/11/27 20:43
Original anzeigen
Von:GO2MARS的WEB3研究

Heutzutage ist AI zweifellos einer der heißesten Sektoren weltweit. Sowohl innovative Start-ups als auch traditionelle Großunternehmen, darunter OpenAI aus dem Silicon Valley sowie Moonshot und zhipu qingyan aus China, beteiligen sich nacheinander an dieser AI-Revolution.

Neues Paradigma der KI-Datenökonomie: DINs Ambitionen und Node-Verkäufe aus der Perspektive modularer Datenvorverarbeitung image 0

Vorwort

Künstliche Intelligenz (AI) ist derzeit zweifellos eines der heißesten Themen weltweit. Sowohl innovative Start-ups als auch traditionelle Großunternehmen, von OpenAI im Silicon Valley bis hin zu Moonshot und Zhipu Qingyan in China, beteiligen sich an dieser AI-Revolution. Sie gibt nicht nur im Technologiesektor den Ton an, sondern ist auch einer der herausragendsten Bereiche des Kryptomarktes in diesem Jahr. Betrachtet man die Projekte, die dieses Jahr an großen CEX gelistet wurden, so führt Bittensor (TAO), der AI-Leader, trotz der jüngsten Marktschwankungen mit einer Rendite von über dem Fünffachen alle neuen Coins dieses Jahres an. Mit der fortschreitenden Entwicklung und Anwendung von AI-Technologien wird die Bedeutung von Daten als Fundament der AI immer deutlicher.

Im Zeitalter der AI erreichen die Bedeutung und der potenzielle Wert von Daten ein nie dagewesenes Niveau

Statistiken zufolge müssen die führenden AI-Großmodell-Unternehmen derzeit jährlich Datenmengen in Hunderten von Millionen verarbeiten und konsumieren. Die Effektivität und Präzision dieser Daten beeinflussen direkt das Trainingsergebnis der AI-Modelle. Allerdings steigen auch die Kosten für die Beschaffung von Daten stetig an und stellen eine große Herausforderung für alle AI-Unternehmen dar.

Die Optimierung der Leistung basiert auf dem stetig steigenden Datenverbrauch

Auf dem aktuellen Markt verarbeiten und konsumieren Großmodell-Unternehmen jährlich enorme Datenmengen. Zum Beispiel nutzte OpenAI für das Training des GPT-3-Modells etwa 45 TB an Textdaten, während die Trainingskosten für GPT-4 sogar 78 Millionen US-Dollar betrugen; die Berechnungskosten für das Training des Gemini Ultra-Modells von Google lagen bei etwa 191 Millionen US-Dollar. Dieser enorme Datenbedarf beschränkt sich nicht nur auf OpenAI, sondern auch andere AI-Unternehmen wie Google und Meta müssen beim Training großer AI-Modelle riesige Datenmengen verarbeiten.

Die Effektivität der Daten muss beachtet werden

Effektive Daten müssen von hoher Qualität, unverzerrt und reich an Merkmalen sein, damit AI-Modelle daraus lernen und genaue Vorhersagen treffen können. Beispielsweise verwendete OpenAI beim Training von GPT-3 Textdaten aus verschiedenen Quellen, darunter Bücher, Artikel und Websites, um Vielfalt und Repräsentativität der Daten sicherzustellen. Die Effektivität der Daten hängt jedoch nicht nur von ihrer Herkunft ab, sondern umfasst auch Schritte wie Datenbereinigung, Annotation und Vorverarbeitung, die alle erhebliche personelle und materielle Ressourcen erfordern.

Die nicht zu unterschätzende Wirtschaftlichkeit – Kosten für Datenerhebung und -verarbeitung

In der Praxis werden die Kosten für Datenerhebung, -annotation und -verarbeitung beim Training von AI-Modellen häufig unterschätzt, können aber sehr erheblich sein. Insbesondere die Datenannotation ist ein zeitaufwändiger und teurer Prozess, der oft manuelle Arbeit erfordert. Nach der Erhebung müssen die Daten zudem bereinigt, organisiert und verarbeitet werden, damit AI-Algorithmen sie effektiv nutzen können. Laut einem Bericht von McKinsey können die Kosten für das Training eines großen AI-Modells mehrere Millionen US-Dollar betragen. Darüber hinaus sind Aufbau und Wartung von Datenzentren und Recheninfrastruktur für AI-Unternehmen ebenfalls ein enormer Kostenfaktor.

Zusammenfassend lässt sich sagen, dass das Training großer AI-Modelle auf einer großen Menge hochwertiger Daten basiert. Die Menge, Effektivität und die Kosten der Datenbeschaffung bestimmen direkt die Leistung und den Erfolg von AI-Modellen. In Zukunft wird mit dem weiteren Fortschritt der AI-Technologie die effiziente Beschaffung und Nutzung von Daten zum entscheidenden Wettbewerbsfaktor für AI-Unternehmen.

Modulare Datenvorverarbeitungsschicht: Dezentralisierte AI-Datenlösung auf Blockchain-Basis

Vor diesem Hintergrund ist DIN (ehemals Web3Go) als die erste modulare, AI-native Datenvorverarbeitungsschicht entstanden. DIN zielt darauf ab, durch dezentralisierte Datenvalidierung und Vektorisierung jedem zu ermöglichen, Daten für AI bereitzustellen und dafür entlohnt zu werden. Damit wird eine neue Datenökonomie eingeleitet, in der jeder seine persönlichen Daten monetarisieren kann und Unternehmen Daten effizienter und kostengünstiger beschaffen können. Aktuell hat DIN 4 Millionen US-Dollar in einer Seed-Runde von Binance Labs erhalten und anschließend weitere 4 Millionen US-Dollar Pre-Listing-Finanzierung von anderen Institutionen, der Community und KOL-Netzwerken eingesammelt. Die aktuelle Bewertung liegt bei 80 Millionen US-Dollar, was das große Potenzial und die hohe Anerkennung des Marktes für die zukünftige Entwicklung unterstreicht. Zu den Partnern gehören Polkadot, BNB Chain, Moonbeam Network und Manta Network.

DINs Datenvorverarbeitungsknoten – Chipper Node

DINs Marktpositionierung ist sehr klar: Es will ein dezentrales intelligentes Datennetzwerk im Bereich AI und Daten aufbauen.Der Chipper Node spielt im DIN-Ökosystem eine wichtige Rolle,ist zuständig für Datenvalidierung, Vektorisierung und die Berechnung von Belohnungen und bildet die Kernkomponente der DIN-Datenvorverarbeitungsschicht.

0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!

Das könnte Ihnen auch gefallen

Forbes Prognose für Kryptotrends 2026: Wohin geht es nach abnehmender Volatilität?

Stablecoin-Boom, die Finanzialisierung von Bitcoin und grenzüberschreitende Kapitalströme beschleunigen die Umstrukturierung der Branche.

Chaincatcher2025/11/27 21:52
Forbes Prognose für Kryptotrends 2026: Wohin geht es nach abnehmender Volatilität?