一目でわかる7つの分散型AIプロジェクト
非中央集権的なAIは、おそらく暗号の世界で今後最も急速に成長する分野だろう。
JinseFinance著者: @ed_roman; Compiled by Vernacular Blockchain
人工知能(AI)は最近、暗号市場で最もホットで有望な分野の1つとなっています。
分散型AIトレーニング
GPU分散型物理インフラ。ネットワーキング
検閲不要のAIモデル これらはブレークスルーなのか、単なる誇大広告なのか?
@hack_vc では、霧を晴らし、約束と現実を分けようとしています。 この記事では、暗号とAIのトップアイデアの分析に飛び込みます。本当の課題と機会を一緒に探っていきましょう。
AIオンチェーントレーニングの問題点は、トレーニング中にニューラルネットワークをバックプロパゲートする必要があるため、GPU間の高速通信と調整が必要になることです。Nvidiaは、この目的のために2つの革新的な技術(NVLinkとInfiniBand)を提供しています。これらのテクノロジーは、GPU通信を劇的に高速化することができますが、1つのデータセンター内のGPUクラスタでのみ使用できます(50Gbps以上の速度で)。
分散型ネットワークを導入した場合、ネットワークの待ち時間と帯域幅が増加するため、速度は大幅に低下します。これは、Nvidiaがデータセンター内で提供する高速相互接続と比較すると、AIトレーニングのユースケースでは単純に実現不可能です。さらに、分散環境におけるネットワーク帯域幅とストレージのコストも、ローカルクラスタのSSDに比べてはるかに高くなります。
AIモデルをオンチェーンでトレーニングする際のもう1つの問題は、この市場が推論に比べて魅力的ではないということです。現在、多くのGPU計算リソースがAI大規模言語モデル(LLM)のトレーニングに使用されています。しかし、長期的には、推論がGPUの主要なアプリケーションシナリオになるでしょう。考えてみてください。需要を満たすために、どれだけのAI大規模言語モデルをトレーニングする必要があるでしょうか?それに比べて、どれだけの顧客がこれらのモデルを使用するのでしょうか?
この分野では、オンチェーンAIトレーニングの未来に希望を与えるようなイノベーションがすでにいくつかあることに注目してください。また、NVIDIA自身も集団通信ライブラリを通じて非ローカル分散トレーニングをサポートしています。しかし、これはまだ初期段階であり、採用にはまだ時間がかかる。物理的な距離によるボトルネックはまだ存在するため、ローカルのInfiniBandトレーニングの方がまだかなり高速です。
2)通信の同期回数を減らす分散型トレーニングを研究する新しい研究がいくつか発表されており、将来的には分散型トレーニングがより実用的になる可能性があります。
3)インテリジェントなスライシングとトレーニングスケジューリングは、パフォーマンスの向上に役立ちます。同様に、将来的には分散インフラ用に特別に設計された新しいモデルアーキテクチャが登場するかもしれません(Gensynはこれらの分野に取り組んでいます)。
4)予測符号化ネットワーク(PCN)と呼ばれる新しいアプローチを通じて、低コストで分散トレーニングを可能にするNeuromeshの試みなどの革新。
トレーニングのデータ情報の部分も課題です。どのようなAIのトレーニングプロセスでも、大量のデータを扱うことになります。通常、モデルは、スケーラブルで高性能な集中型の安全なデータストレージシステム上でトレーニングされます。これには何テラバイトものデータを転送し、処理する必要があり、しかも1回限りのサイクルではない。データはノイズが多く、エラーも含まれていることが多いため、モデルを学習させる前に、データをクリーニングし、使用可能な形式に変換する必要がある。この段階には、正規化、フィルタリング、欠損値の処理といった反復作業が含まれる。分散化された環境では、これらは深刻な課題となる。
トレーニングのデータ情報の部分も反復的であり、Web3とはあまり相性が良くない。 OpenAIは、現在に至るまで何千回も反復を繰り返した。トレーニング・プロセスは反復的である。現在のモデルが期待に沿わない場合、専門家はデータ収集やモデルのトレーニング段階に戻り、結果を改善する。さて、利用可能な最高のフレームワークやツールがWeb3で簡単にアクセスできない分散環境で、このプロセスを行うことを想像してみてください。
有望なテクノロジーのひとつに、オンチェーンデータストレージやデータ可用性インフラを提供する0g.ai(Hack VCが支援)がある。彼らはより高速なアーキテクチャと、大量のデータをオンチェーンで保存する能力を持っている。
暗号とAIを組み合わせる際の課題の1つは、AIの推論の正確性を検証することです。ノードの誤作動の可能性があるからだ。Web2のAIでは、分散型コンセンサスシステムが存在しないため、この課題は存在しない。
1つの解決策は冗長計算で、複数のノードが同じAI推論操作を繰り返すことで、信頼のない環境で動作し、単一障害点を回避します。
このアプローチの問題点は、ハイエンドAIチップの不足が深刻な世界であることです。ハイエンドのNVIDIA製チップの待機期間は数年で、価格の上昇につながっています。また、AIの推論を複数のノードで何度も繰り返す必要がある場合、こうした高価なコストが大幅に上乗せされる。多くのプロジェクトでは、これは実現不可能です。
Web3は、Web3の顧客専用の独自のAIユースケースを持つべきだと提案されています。
現時点では、これはまだ新興市場であり、ユースケースはまだ発見されていません。
Web3ネイティブのユースケースは、市場の需要がまだ初期段階にあるため、より少ないAIトランザクションを必要とします。
Web3の顧客はWeb2の顧客と比べて桁違いに少ないので、市場の断片化が少ないからです。
顧客自体は、資本が少ない新興企業であるため安定しておらず、これらの新興企業は時間の経過とともに廃業する可能性があります。Web3の顧客をターゲットにしているAIサービス・プロバイダーは、廃業した顧客を置き換えるために、時間の経過とともに顧客の一部を取り戻す必要があるかもしれず、ビジネスの規模を拡大することが難しくなります。
長期的には、特にAIエージェントが一般的になるにつれて、私たちはWeb3ネイティブのAIユースケースに対して非常に強気です。私たちは、すべてのWeb3ユーザーが複数のAIエージェントに助けてもらう未来を描いています。この分野における初期のリーダーはTheoriq.aiです。彼らは、Web2とWeb3の両方の顧客にサービスを提供できる、組み合わせ可能なAIエージェントプラットフォームを構築しています(Hack VCが支援)。
データセンターのGPUではなく、コンシューマーグレードのGPUに依存する分散型AIコンピュートネットワークが数多くあります。GPUは、ローエンドのAI推論タスクや、より柔軟なレイテンシ、スループット、信頼性が要求される消費者向けのユースケースに適しています。しかし、顧客が自宅のマシンよりもネットワークの信頼性を期待し、複雑な推論タスクには一般的にハイエンドのGPUが必要とされるような、本格的な企業ユースケース(つまり、大きな市場シェアを持つユースケース)には、データセンターが適しています。
コンシューマー向けGPUは、デモ用途や、より低い信頼性を許容できる個人や新興企業向けとして適切であると見ていることに注意することが重要です。しかし、このような顧客は基本的に価値が低いため、長期的にはWeb2企業向けの分散型物理インフラネットワーク(DePIN)の方が価値が高くなると考えています。その結果、よく知られたGPU DePINプロジェクトは、主にコンシューマーグレードのハードウェアを使用していた初期から、現在ではA100/H100およびクラスタレベルの可用性を持つまでに進化しています。
さて、暗号×AIが大きな価値を付加できるユースケースについてお話ししましょう。
マッキンゼーは、ジェネレーティブAIが、彼らが分析した63のユースケースに、年間2.6兆ドルから4.4兆ドルの価値を付加できると見積もっています。-- 2021年の英国のGDP総額の3.1兆ドルと比較して)。これは、すべてのAIのインパクトを15~40%増加させるだろう。現在他のタスクに使われているソフトウェアにジェネレーティブAIを組み込めば、この推定価値はおよそ2倍になるだろう。
興味深いことに、
これらの推定に基づくと、世界のAI(ジェネレーティブAIだけでなく)の総市場価値は数十億ドルに達する可能性があるということになります。市場価値は数十兆ドルになる可能性があります。
これと比較すると、すべての暗号通貨(ビットコインとすべてのトレントコインを含む)を合わせた総価値は、現在わずか約2兆7000億ドルです。
ですから、現実的に考えましょう。短期的にAIを必要とする顧客の大半はWeb2の顧客であり、実際にAIを必要とするWeb3の顧客は2兆7000億ドル市場のごく一部に過ぎないからです(BTCが市場シェアの半分を占めており、BTC自体がAIを必要としない/使用しないことを考慮すると)。はAIを必要としない/使用しない)。
Web3のAIのユースケースは始まったばかりであり、市場がどれほどの規模になるかは明らかではない。しかし、1つだけ直感的に確かなことがあります。それは、当面はWeb2市場の一部でしかないということです。私たちは、Web3 AIにはまだ明るい未来があると考えていますが、それはつまり、Web3 AIの最も一般的なアプリケーションは、まだWeb2の顧客にサービスを提供しているということです。
Web3 AIから恩恵を受ける可能性のあるWeb2顧客の例には、次のようなものがあります:
ゼロから構築し、使用している垂直産業のソフトウェア企業。
独自の目的のためにモデルを微調整する大企業(Netflixなど)
Vertical Industryのソフトウェア企業。align: left;">急成長しているAIプロバイダー(例:Anthropic)
既存の製品にAI機能を追加しているソフトウェア企業(例:Canva)
このような企業があります。align: left;">これらの顧客は一般的に大規模で価値が高いため、比較的安定した顧客ベースです。これらの顧客はすぐに廃業する可能性は低く、AIサービスにとって非常に大きな潜在顧客層となります。Web2の顧客にサービスを提供するWeb3のAIサービスは、この安定した顧客基盤から恩恵を受けるでしょう。
しかし、なぜWeb2の顧客はWeb3の技術スタックを使いたがるのでしょうか?この記事の残りの部分では、その理由を説明します。
GPUのDePINは、使用率の低いGPUコンピューティングパワー (最も信頼性の高いGPU) をプールします。コンピューティング・パワー(データセンターから供給される最も信頼性の高いもの)をプールし、これらのリソースをAI推論に利用できるようにします。GPU DePINは「GPUのAirbnb」(つまり、十分に活用されていない資産の共同消費)と考えてください。
私たちがGPU DePINに興奮しているのは、主にNVIDIAのチップ不足という上記の理由からです。これらのハードウェア所有者は、すでにサンクコストが発生しており、現在デバイスを十分に活用していないため、これらのGPUサイクルの一部は、ハードウェア所有者にとって事実上「儲け」であるため、現状よりも低コストで利用できるようにすることができます。
具体的な例は次のとおりです:
1)AWSマシン: 今日、AWSからH100をリースするとしたら、市場が厳しいため、少なくとも1年間のリースを約束する必要があります。
2)ファイルコイン採掘ハードウェア:ファイルコインネットワークには多額の補助金が供給されているが、実際の需要はそれほど多くない。残念ながら、Filecoinは実際の製品市場に適合するものを見つけられていないため、Filecoinの採掘者は廃業の危機に瀕している。これらのマシンはGPUを搭載しており、ローエンドのAI推論タスクに再利用できる。
3)ETHマイニングハードウェア:ETHがプルーフ・オブ・ワーク(PoW)からプルーフ・オブ・ステーク(PoS)に移行したとき、AI推論に再利用できる大量のハードウェアがすぐに利用できるようになりました。
GPUのDePIN市場は競争が激しく、複数のプレイヤーが製品を提供しています。Hack VCは、他のGPU DePINとのパートナーシップを通じて供給をプールしているio.netをサポートすることにしました。
すべてのGPUハードウェアがAI推論に適しているわけではないことに注意することが重要です。1つの明白な理由は、古いGPUには大規模な言語モデル(LLM)を処理するのに十分なGPUメモリがないことです。例えば、Exabits社は、アクティブなニューロンをGPUメモリに、非アクティブなニューロンをCPUメモリにロードする技術を開発した。どのニューロンをアクティブ/非アクティブにする必要があるかを予測するのだ。これにより、GPUメモリが限られている場合でも、AIワークロードの処理にローエンドGPUを使用することが可能になる。これは実際に、AI推論におけるローエンドGPUの有用性を高めています。
さらに、Web3 AI DePINは、シングルサインオン(SSO)、SOC 2コンプライアンス、サービスレベルアグリーメント(SLA)などのエンタープライズグレードのサービスを提供するために、時間をかけてサービスを強化する必要があります。これは、Web2の顧客が享受している現在のクラウドサービスに匹敵するものになるでしょう。
AIの検閲については多くの議論があります。たとえば、トルコは一時的にOpenAIを禁止しました(OpenAIがコンプライアンスを改善した後、禁止は解除されました)。私たちは、このような国レベルの検閲が基本的に懸念の原因だとは考えていません。
さらに興味深いことに、OpenAIは自ら検閲を行っています。例えば、OpenAIはNSFW(職場での閲覧には適さない)コンテンツを処理しませんし、次の大統領選挙の結果を予測することもありません。私たちは、OpenAIが政治的な理由でカバーしたくないAIアプリケーションには、興味深く大きな市場があると考えています。
オープンソースは、Githubリポジトリが株主や取締役会に縛られないので、これに対処する素晴らしい方法です。その一例がVenice.aiだ。Venice.aiはユーザーのプライバシーを保護し、検閲のない方法で運営することを約束している。web3 AIは、これらのオープンソースソフトウェア(OSS)モデルを推論用に低コストのGPUクラスタで実行することで、これを効果的に強化することができる。このため、OSS + Web3は、検閲のないAIへの道を切り開く理想的な組み合わせだと考えています。
多くの大組織は、社内の企業データについてプライバシーに関する懸念を抱いています。このような顧客にとって、OpenAIのような一元化されたサードパーティがこのデータを扱うことを信頼することは困難です。
このような企業にとって、内部データが突然分散型ネットワーク上に現れるため、Web3の利用はさらに恐ろしいものに思えるかもしれない。
Superプロトコル
Fhenix.io(Hack VCが運営)のような信頼された実行環境(Trusted Execution Environments: TEEs)のような、プライバシーを強化するテクノロジー
AIについては、いくつかのイノベーションがありました。nbsp;VCが運用するファンドのポートフォリオ会社)、またはInco Network(どちらもZama.aiが提供)やBagelのPPMLのような完全同型暗号化(FHE)
これらのテクノロジーは今も進化を続けており、今後登場するZero Knowledge(ZK)やFHE
のようなASICもそのひとつです。ASICが登場し、性能は向上し続けています。しかし、長期的な目標は、モデルを微調整しながら企業データを保護することです。これらのプロトコルが登場するにつれ、web3はプライバシーを保護するAIコンピューティングにとって、より魅力的な場になるかもしれません。
過去数十年にわたり、オープンソースソフトウェア(OSS)はプロプライエタリなソフトウェアの市場シェアを侵食してきました。私たちはLLMを、オープンソース・ソフトウェアに対してますます破壊的な存在になりつつある、先進的なプロプライエタリ・ソフトウェアの一形態と考えています。注目すべき挑戦者には、Llama、RWKV、Mistral.aiなどがあり、このリストは時間の経過とともに間違いなく増えていくだろう(より包括的なリストはOpenrouter.aiで入手可能)。オープンソースモデルを搭載したWeb3 AIを活用することで、これらの新しいイノベーションを最大限に活用することができます。
私たちは、オープンソースのグローバルな開発労働力と暗号化インセンティブを組み合わせることで、オープンソースモデルだけでなく、その上に構築されたエージェントやフレームワークの急速なイノベーションを促進できると考えています。AIエージェント・プロトコルの一例として、Theoriqがあります。Theoriqは、オープンソースモデルを活用して、組み合わせ可能な相互接続されたAIエージェントのネットワークを作成し、それらを組み合わせることで、より高度なAIソリューションを作成することができます。
私たちがこのように考える理由は、過去の経験にあります。かつてはプロプライエタリ・ソフトウェア企業だったマイクロソフトが、今ではGithubに最も貢献している企業になったのには理由がある。Databricks、PostGresSQL、MongoDBなどがプロプライエタリなデータベースをどのように破壊しているかを見れば、業界全体がオープンソースソフトウェアによって破壊された例であることがわかるだろう。
しかし、小さなキャッチがあります。OSSのLLMに関する1つの厄介な問題は、OpenAIがRedditやNew York Timesなどの組織と有料のデータライセンス契約を結び始めたことです。この傾向が続けば、データへのアクセスに経済的な障壁があるため、OSS LLMの競争はますます難しくなるかもしれない。エヌビディアは、機密コンピューティングを安全なデータ共有のための強化ツールとして利用するかもしれない。時間が解決してくれるでしょう。
検証は、Web3 AI推論における課題です。検証者が結果を詐称することで手数料を得ることが可能であるため、推論を検証することは重要な手段です。AIの推論がまだ発展途上である間は、そのような行動のインセンティブを弱める対策が取られない限り、そのような欺瞞は避けられないことに注意することが重要です。
標準的なWeb3のアプローチは、複数の検証者が同じ操作を繰り返し、結果を比較することです。しかし、先に述べたように、ハイエンドのNvidiaチップが不足している現状では、AIの推論は非常に高価です。web3が十分に活用されていないGPU DePINを通じてより低コストの推論を提供できることを考えると、冗長な計算はweb3の価値提案を著しく損なうことになります。
より有望な解決策は、オフチェーンAI推論計算のためのゼロ知識証明を実行することです。この場合、モデルが正しくトレーニングされたか、推論が正しく機能しているかを判断するために、簡潔なゼロ知識証明を検証することができます(zkMLと呼ばれます)。これらのソリューションの性能は、ゼロ知識演算にかなりの計算リソースが必要なため、まだ発展途上である。しかし、近い将来、ゼロ知識ハードウェアASICが導入されれば、改善されるかもしれません。
より有望なアイデアは、AI推論への「楽観的な」サンプリングベースのアプローチです。このようなモデルでは、バリデータによって生成された結果のごく一部だけを検証する必要がありますが、不正行為を行ったバリデータに対してペナルティを課すのに十分なほど経済的コストを高く設定することで、強力な経済的禁止を作り出します。こうすることで、冗長な計算を省くことができます(例えば、Hyperbolicの「サンプリングの証明」論文を参照してください)。
もう1つの有望なアイデアは、Bagel Networkが提案しているような、電子透かしとフィンガープリントを利用したソリューションです。これは、Amazon Alexaが数百万台のデバイス上のAIモデルの品質保証のために提供している仕組みに似ています。
ウェブ3がAIにもたらす次の機会は、コスト削減の民主化です。これまで、io.netのようなDePINを通じてGPUコストを節約する方法について説明してきました。しかし、web3は、中央集権的なweb2のAIサービス(OpenAIのような、本稿執筆時点で年間10億ドル以上の収益を上げている)の利益率を節約する機会も提供している。このようなコスト削減は、プロプライエタリなモデルではなく、オープンソースソフトウェア(OSS)モデルを使用することによってもたらされ、モデル作成者が利益を上げようとしないため、さらなるコスト削減を実現します。
多くのOSSモデルは常に完全に無料であり、顧客にとって最高の経済性を提供します。しかし、このような実現方法を試すオープンソースソフトウェアモデルもあるでしょう。Hugging Faceに掲載されているモデルのうち、補助金を出す予算がある企業によってトレーニングされたものはわずか4%しかないことを考慮してほしい(こちらを参照)。残りの96%のモデルは、コミュニティによって訓練されている。この96%のハギング・フェイスのモデル・コミュニティは、実際のコスト(計算コストとデータ・コストの両方)に直面している。ですから、これらのモデルは何らかの方法で実現される必要があるのです。
このオープンソースソフトウェアモデルを実現するための提案はいくつもあります。最も興味深いものの1つは「Initial Model Offering」(IMO)というコンセプトで、トークンの一部をチームに残してモデル自体をトークン化し、モデルからの将来の収益の一部をトークン保有者に流すというものです。
他のオープンソースソフトウェアモデルでは、使用量に応じたキャッシュアウトが試みられます。もしこれが現実になれば、オープンソースソフトウェアのモデルは、Web2で利益を生み出すようなものにますます似てくるかもしれないことに注意することが重要です。しかし、現実的には、市場は分岐し、これらのモデルのいくつかは完全に無料になるでしょう。
一度オープンソースソフトウェアモデルを選択したら、その上で組み合わせ可能な階層を作ることができます。例えば、AI推論にはRitual.netを、コンポーザブルで自律的なオンチェーンAIエージェントの初期のリーダーとしてTheoriq.aiを使うことができます(どちらもHack VCが支援しています)。
AIが直面する最大の課題の1つは、モデルの学習に適した適切なデータを取得することです。分散型AIトレーニングにはいくつかの課題があることは前述しました。しかし、分散型ウェブを使用してデータを取得することについてはどうでしょうか(その後、従来のウェブ2プラットフォームであっても、別の場所でトレーニングに使用することができます)?
これこそが、Grassのようなスタートアップが(Hack VCからの支援を受けて)行っていることであり、個人が自分のマシンの遊休処理能力を提供してAIモデルのデータを取得する、分散型の「データクローリング」ネットワークである。Grassは分散型の「データ・クローリング」ネットワークであり、個人が自分のマシンのアイドル状態の処理能力を提供して、AIモデル学習のためのデータを取得する。理論的には、大規模なアプリケーションでは、この種のデータ収集は、インセンティブを与えられたノードの大規模なネットワークの計算能力により、どの企業の社内努力よりも優れている可能性がある。これには、より多くのデータを取得するだけでなく、より頻繁にデータを取得することで、より関連性の高い最新のデータを取得することも含まれる。これらのデータクローリングノードは本質的に分散型であり、単一のIPアドレスに属していないため、このデータクローラーの分散型軍団を止めることは事実上不可能である。さらに、一旦クロールされたデータを有用なものにするために、データをクリーニングし、正規化することができる人間のネットワークもある。
一度データを取得したら、そのデータを使って生成されたLLM(大規模言語モデル)と同様に、オンチェーンストレージの場所も必要です。この点で、0g.AIは初期のリーダーである。0g.AIは、AIに最適化された高性能なWeb3ストレージ・ソリューションであり、AWS(これはWeb3 AIにとってもう一つの経済的成功である)よりもはるかに安く、Tier 2やAIなどのデータ可用性インフラとしても機能する。
将来的に、web3 AIにおけるデータの役割が変わる可能性があることに注意することが重要です。現在、LLMの現状は、データを使用してモデルを事前に訓練し、より多くのデータを使用して時間をかけてモデルを改善することです。しかし、インターネット上のデータはリアルタイムで変化するため、これらのモデルは常に若干古くなっており、その結果、LLM推論に対する回答は若干不正確になっている。
将来進化するかもしれない新しいパラダイムは、「リアルタイム」データです。これは、LLMに推論を求める際に、インターネットからリアルタイムで収集したデータを注入することで、LLMがデータを利用できるというものです。こうすることで、LLMは利用可能な最新のデータを使用することになり、グラスはこれにも取り組んでいる。
この分析が、ウェブ3AIの約束と現実について考える際にお役に立てば幸いです。これは議論の出発点に過ぎず、この分野は急速に変化しているので、私たちが共に学び、構築し続けたいと思うように、遠慮なく参加し、意見を述べてください。
非中央集権的なAIは、おそらく暗号の世界で今後最も急速に成長する分野だろう。
JinseFinanceブロックチェーンと機械学習には明らかに多くの共通点がある。一方は信頼を生み出す技術であり、もう一方は信頼を切実に必要とする技術である。
JinseFinance批判的に考える能力を目覚めさせ、感情の干渉をコントロールすることは、暗号の世界で着実に前進するために必要なツールであり、それ以上に、人類が持つことのできる最も強力な武器であり、AIの挑戦に反撃するものなのだ。
JinseFinance混沌とした世界において、音楽は魂の故郷である。それは感情のはけ口であり、魂の癒しである。音楽のメロディーに共鳴を見出し、言葉では表現できない感情の深みに触れる。
JinseFinance教育へのAIの応用は、チャンスと課題の両方をもたらす。個別化された学習を提供するにもかかわらず、生徒のプライバシーとデータセキュリティへの慎重な配慮が不可欠である。教育におけるAIの利点を責任を持って倫理的に活用するためには、保護者の関与とともに、連邦政府と州政府の協力的な取り組みが不可欠である。
Cheng Yuanバイドゥ、シャオミ、Kuaishouを含む中国のハイテク大手は、米国とのAI協力を受け入れながら、経済的な課題をナビゲートする。課題と進歩の間の微妙なダンスは、グローバル・イノベーションの未来についての疑問を呼び起こす。
BerniceAIの利点を活用することと、潜在的な課題に対処することのバランスを取ることは、この進化するダイナミズムの極めて重要な側面であり続けている。
Catherine仮想通貨取引所は、コスト削減策の一環として従業員を手放しています。
Beincrypto一晩で、マルチチェーンの DEX Transit Swap から 2,100 万ドルが奪われました。
OthersスヌープとデジタルマルチメディアアーティストColdieとの初のNFTコラボレーション「Decentralized Dogg」が本日SuperRareでリリースされました。
Cointelegraph