著者:B Source: X, @bonnazhu
最近リリースされたOpenAI 4o版に便乗して、AI+ブロックチェーンの見解を少し。
OpenAIが主導するジェネレーティブAIの波は、データ、ストレージ、コンピュートという3つのセグメントの開発を自ら引っ張ってきた。
第一に、AIは上流インフラストラクチャの需要を牽引します。
1)コンピューティング:チップの設計と製造、クラウド・コンピューティング・サービス、データセンター、ネットワーク/電力インフラなどを含む
このセグメントは物理学に偏っており、AIのトレーニングと結果出力は、多くの演算能力、電力、および演算能力を消費する必要がある。チップの性能は効率とエネルギー消費の鍵となる。つまり、NVIDIAやAMDのようなチップ設計会社、TSMCやサムスンのようなファウンドリ、そしてクラウドやデータセンター事業を展開するグーグル、マイクロソフト、アマゾンのようなハイテク大手が、このラウンドから最も大きな価値を獲得する運命にある。
しかし、ブロックチェーンに用途がないわけではない。現在、演算能力の独占は非常に明白であり、高性能GPUを見つけるのは困難であるか、クラウドコンピューティングベンダーで関連サービスを受けるには高いプレミアムを支払う必要があり、また、地政学的、チップ禁止およびその他の理由による可能性があり、その結果、地理的分布における演算能力の分布も集中を示しています。この不均衡から需要が波及することで、分散型コンピューティングは、このAIの波から具体的な利益を享受できるブロックチェーン・セグメントのひとつとなっている。このセグメントには数多くのプロジェクトがあり、常に新しいプロジェクトが登場しており、競争は熾烈を極めるだろう。project @gpunet @nosana_ai など。
しかし、ブロックチェーン・ネットワーク自体の性能限界と、機械学習の法外な計算量との間の矛盾により、複雑なディープラーニングをオフチェーンで実行し、その結果をチェーンに送信することは避けられない。演算プロバイダーが要求通りに学習タスクを実行したことをどのように検証するかは難しい課題であり、計算にはデータやモデルへの呼び出しが必要で、潜在的なプライバシー暴露の問題がある。この時点で、ZK(Zero Knowledge Proof)の威力が明らかになる。現在、 @bagel_network @gizatechxyz @ModulusLabs のようなAIのためのZKを探求する多くのプロジェクトがありました。また、@ezklxyz はAI ZKP生成・検証サービス、@Ingo_zk はZKP生成ハードウェアアクセラレーションを行うことに注力しています。
また、生成AIに関連するエネルギー消費(計算と放熱の両方)は非常に印象的です。OpenAIがGPT-6をトレーニングしたところ、マイクロソフトの電力網がクラッシュしたと言われている。その後、大手企業がAIデータセンターの増強を続けているため(OpenAIはマイクロソフトと共同で1000億ドルを投じてスターゲイトStargateと呼ばれるスーパーコンピューターを建設する予定)、エネルギー消費量は幾何級数的に上昇する一方だろう。しかし、ネットワーク/電力のようなインフラ構築の改修サイクルは遅く、例えばアメリカのように土地のほとんどが私有地である国では、送電網や関連インフラの拡張には民間の同意が必要だ。いかに民間にインフラ拡充に参加するインセンティブを持たせるか、あるいは民間に送電網への依存や負担を軽減させるか、これが今後の重要な課題かもしれない。もちろん、電力だけでなく、安定した帯域幅もAIが必要とする重要なインフラの一つであり、ほとんどのデータセンターは、電力が豊富な場所に近いISP(インターネットサービスプロバイダ)に建設される傾向にあるが、ネットワーク帯域幅リソースは必ずしも豊富ではない。このミスマッチの問題を解決するために、#DePin をどのように利用するのかも、楽しみな方向性である。
2)データ:データ収集、データのラベル付け/処理、データの取引/認可を含む。
データはAIの「食料」ですが、ほとんどの機械学習モデルは、加工された構造化データしか使用できません。現在、機械学習に使用されるデータはさまざまなソースから得られており、そのほとんどは構造化されておらず、パブリックドメインに分散しているため、それらを収集し処理するには多くの時間と労力が必要です。これは実際には労働集約的な雑務ですが、ブロックチェーンとトークンエコノミーもリンクに非常に良いカットすることができ、現在、このデータ収集、処理の下請け事業を行うには、主に @getgrass_io @PublicAI_ @AITProtocol これらのいくつかです。
ただし、新しい機械学習モデルアーキテクチャが登場するにつれて、構造化データへの依存度が変化することに注意することが重要です。自己教師あり学習、GAN、VAE、および事前に訓練されたモデルなどの新しい技術アーキテクチャは、データ処理やクレンジングをバイパスして、ディープラーニングのために非構造化データを直接活用することができます。
さらに、公にクロールできるデータは世界のデータの氷山の一角に過ぎず、実際には大量のデータが民間組織や個人ユーザーの手中にあり、呼び出し可能な公開APIを持つ一部の企業を除いて、データのほとんどは不活性なままである。より多くのデータ保有者が、いかにプライバシー保護に配慮しながらデータを提供/承認できるようにするかは、重要な方向性である。かつて、分散型データ取引を行うプラットフォームは数多く存在したが、データを必要とする相手を見つけるのに苦労したため、大きな波が数サイクル押し寄せた後、基本的に姿を消し、AIの春に生き残った @oceanprotocol のような少数のプラットフォームだけが残った。データを公開することなく、データ共有者のデータセット上でデータ利用者が直接計算できるようにするCompute-to-dataモデルは、このプライバシーの問題を適切に解決します。
3)ストレージ:データベース、データバックアップ/ストレージを含む
ディープラーニングモデルは、主にデータベースやデータストレージバックアップシステムから取得したデータで学習・推論されます。データストレージバックアップシステム。データベースとバックアップ/ストレージ・システムは「冷蔵庫」と考えることができるが、同じではない。 前者は管理に重点を置き、頻繁な読み書きをサポートし、複雑なクエリ(SQLなど)や検索をサポートする必要があるのに対し、後者は大規模かつ長期的なバックアップとアーカイブに重点を置き、プライバシー、セキュリティ、改ざん可能性を確保する必要がある。後者は大規模で長期的なバックアップとアーカイブに重点を置き、プライバシー、セキュリティ、改ざん不可能性を確保する必要があります。
データベースとストレージは互いに補完し合い、連携してAIのディープラーニングに貢献します。 典型的なシナリオは、データベースからデータを抽出し、前処理とクリーニングを行い、モデル学習に適した形式に変換し、処理したデータを分散型ストレージに保存することです。また、データの安全性を確保するために、分散型ストレージに格納することもできる。モデルのトレーニング段階では、トレーニングデータはモデルのトレーニングのために分散型ストレージから読み込まれ、トレーニングプロセス中に生成された中間データとモデルパラメータは、迅速なアクセスと微調整・更新のためにデータベースに保存することができます。
このプレートこそがブロックチェーンの強みであり、@ArweaveEco @Filecoin @storj @Sia__Foundation はすべてこのトラックであり、さらに@ @もそうです。dfinity もに分類することができます、しかし、より多くの @ArweaveEco は、プログラムのAIのサービスに最も適していることを感じる:補完として多くのデータベースプロジェクトの生態系と相まって、永久ストレージモデルのその一回限りの支払いだけでなく、AO計算ネットワークの並列アーキテクチャの新しいリリースは、深層学習に最適です。マルチスレッドタスクのディープラーニングに最適です。
第二に、AIの性能は下流アプリケーションの上限を決定する:
AIは多かれ少なかれ産業や農業(2B)に応用されてきましたが、今回のラウンドで見られたブレークスルーは主に2Cにあり、これは大規模言語モデリング(Large Language Modelling: LLM)に基づくものです。(LLM)の2C応用である。
最初のカテゴリーは、ユーザーのコマンドに基づいて結果を生成するAIGCプラットフォームなど、実際にはLLMの視覚化に過ぎませんが、これらのアプリケーションの性能は、使用されるAIモデルに大きく依存し、その大部分は大手企業が独占しています。もう1つのカテゴリーは、検索エンジンやゲームなどのAI機能を強化するなど、既存製品の機能やユーザー体験を向上させるためにAIモデルを使用することである(@_kaitoai @ScopeProtocol @EchelonFND
その上、ジェネレーティブAIの波は新たなアプリケーション・エコシステムも生み出しました-AIエージェント、つまり、ユーザーの意図に基づいて独立してタスクを実行し、意思決定を行う能力を持つインテリジェントロボットです。AIエージェントの本質は、LLMモデルに基づいて、より洗練された実行・処理ロジックを追加し、さまざまなアプリケーションシナリオに対応できるようにすることである。実際、この種のエージェントのプロトタイプは、DeFiレンディング・プロトコルの清算ボットや分散型取引プラットフォームの裁定ボットなど、暗号通貨の分野ですでに存在している。これらのDeFiボットはスマートボットの特徴をいくつか持っていますが、純粋にオンチェーンであり、オフチェーンでの行動をサポートしておらず、スマートコントラクトに基づいているため、起動するには外部トリガーを必要とします。
AIが存在しない場合、現在はチェーンとチェーンを開くために外部キーパーネットワークのセットを介して、例えば、価格予言マシンは、そのような典型的なだけでなく、 @thekeep3r も例です。そして、AIエージェントの出現は、インテリジェントロボット自身と自動化によって行うことができるという新しい考え方を与える。主にAIエージェントの主題に関するチェーン:@autonolas @MorpheusAIs ;と他のより一般的なAIエージェントの主題は @chainml_ @Fetch_ai ;とコンパニオン、人間とコンピュータの相互作用に焦点を当て、AIエージェントは @mysyself @mysyself と他のより一般的なAIエージェントの主題は @chainml_ @fetch_ai ;とコンパニオン、人間とコンピュータの相互作用に焦点を当て、AIエージェントは持っています。nbsp;@myshell_ai @virtuals_io @The_Delysium があり、このクラスのAgentは擬人化によって特徴付けられ、感情的な価値を提供し、様々なゲームやメタユニバースで使用される想像的な空間を持っています。
最後に書かれた第三:
AIは実際には物語の融合であり、その出現、元の孤立、そしていくつかの暗号ボードの最初でさえ、連動して市場に適合するものを見つけることができませんでした。AIはまだ大きなインフラ投資の時代であり、データ、ストレージ、コンピューティング、上流部門のカテゴリは、最も直接的な継続的な受益者であり、彼らはAIの開発により敏感であり、確実性も高いです。
しかし、この業界の投資家にとって、リスクは、配当のほとんどが暗号通貨市場ではないかもしれないということであり、暗号通貨市場の現在のAI効果は、波及効果によってもたらされた伝統的な市場の需要と供給の不均衡からまだ多く、またはそれは純粋な投機である。性能の上限に起因する川下のアプリケーションは、AIモデルに依存し、AIモデルはまだ継続的な反復の過程にあり、AIと製品の組み合わせはまだ模索されている、市場の適合性はまだ検証されていない、変数の将来の川下のアプリケーションはまだ比較的大きくなり、確実性は川上分野ほど高くありません。
もちろん、@bittensor_ や@ritualnet のようなプロジェクトもあります。これらのプロジェクトは、単に川上や川下の特定のビジネスに焦点を当てるのではなく、川上や川下の様々なビジネスの提供者が、そのプラットフォームやチェーンにアクセスし、展開できるように設計されたアーキテクチャや経済メカニズムを通じて、いわゆるAIコラボレーションを実現する。これらのプロジェクトには野心的なビジョンがあるが、上流と下流のブロックチェーンAIが現在直面しているのと同じ需要捕捉の問題が反映され、より高い評価額になるだろう。しかし、これらのプラットフォームに賭けることは、特定のプロジェクトに賭けるよりも相対的にリスクが低くなるだろう。
短期的には、ブロックチェーンがAIの配当の恩恵を受け続けられるかどうかは、依然として上流セグメントにおける需給の不均衡、特に供給不足の状況が続くかどうかに左右されるかもしれない。しかし、中長期的には、ブロックチェーンの検証可能性、不変性、トークンのインセンティブは、確かにAIに新たな可能性をもたらす可能性があり、その中で、ゼロ知識証明は、プライバシーを保護し、信頼できる検証を可能にする大きな資産であり、性能の限界に直面するAIのディープラーニングにサービスを提供するためのブロックチェーンの高い計算需要の問題を完璧に解決する。