サブプライムAI危機:暗号×AIの再考が必要
著者:Edward Zitron 編集:Block unicorn
暗号産業におけるAI、あるいは従来のインターネットにおけるAIを見ているのであれば、この産業の将来について真剣に考える必要がある。この業界の将来について真剣に考える必要がある。記事はかなり長いので、忍耐力のない方は今すぐお帰りください。
この記事で私が書いたことは、疑念を広めたり「バッシング」したりするためのものではなく、私たちが現在どのような状況にあるのか、そして現在の進路がどこにつながる可能性があるのかを冷静に評価するためのものです。私は、AIブーム、より具体的にはジェネレーティブAIブームは(以前にも言ったように)持続不可能であり、いずれ崩壊すると考えている。私はまた、その崩壊が大手テック企業に壊滅的な打撃を与え、スタートアップのエコシステムに深刻なダメージを与え、テック業界に対する社会的な支持をさらに損なう可能性も危惧している。
私が今日この文章を書いている理由は、複数のAIの「破滅の前触れ」がすでに表面化しており、状況が急速に変化しているように感じられるからです:OpenAIの(急遽)立ち上げられた「o1(コードネーム:Strawberry)」モデルは、「最高の中の最高」と評されています:OpenAIの(急遽)発表された「o1(コードネーム:Strawberry)」モデルは、「大がかりで愚かな手品」(偽りの幻想)と呼ばれている。OpenAIの将来のモデル(および他のモデル)の値上げの噂、Scale AIでのレイオフ、そしてOpenAIからのリーダーシップの離脱は、事態が崩壊し始めている兆候である。
そこで、現状の危機と、なぜ私たちが幻滅の局面にあるのかを説明する必要があると思います。私は、この運動のもろさ、そしてこの時点に至った過剰な執着と方向性の欠如について懸念を表明したい。
さらに、おそらくこれは私がこれまで十分に焦点を当ててこなかった点だが、AIバブル崩壊の潜在的な人的コストを強調したい。マイクロソフトとグーグル(および他の大規模なジェネレーティブAI推進者)が徐々に投資を減速させるにせよ、企業のリソースを麻痺させることでOpenAIとAnthropic(および彼ら自身のジェネレーティブAIプロジェクト)を維持するにせよ、最終的な結果は同じだと思う。私は、何千人もの人々が職を失い、テック業界の多くが、永遠に成長し続けることができるのは癌だけだということに気づくのではないかと危惧している。
この投稿では、あまり明るい話はしない。大手のAIプレーヤーだけでなく、テック業界全体とその従業員について、そして、この厄介で破壊的な結末が、皆さんが思っているよりも早く訪れると私が考える理由について、暗い絵を描いてお話しします。
ページの下に進み、考えるモードに入りましょう。
生成AIはどうやって生き残るのか?
現在、OpenAI(名目上は非営利団体で、すぐに営利団体になる可能性がある)は、新たな資金調達ラウンドで、少なくとも1,500億円の評価額で資金を調達しているところです。少なくとも65億ドル、場合によっては70億ドルを調達する見込みだ。このラウンドはジョシュ・クシュナーのThrive Capitalが主導しており、エヌビディアとアップルも参加する可能性があると噂されている。以前にも詳しく分析したように、OpenAIが生き残るためには、前例のない額の資金を調達し続けなければならないだろう。
さらに悪いことに、Bloombergによると、OpenAIは銀行から「回転信用枠」という形で50億ドルの負債を調達しようとしています。
また、The Informationは、OpenAIは、UAEが支援する1000億ドルの投資ファンドであるMGXと、AIMへの投資について交渉中であるとも報じている。オープンAIは、UAEが支援する1000億ドルの投資ファンドであるMGXと交渉中であり、AIと半導体企業への投資、そしておそらくアブダビ投資庁(ADIA)からの資金調達を模索している。誰も自発的にUAEやサウジアラビアからの資金調達を求めているわけではないので、これは極めて深刻な警告のサインである。彼らに助けを求めることを選ぶのは、多額の資金が必要で、他で調達できるかどうか確信が持てない場合だけです。
余談:CNBCが指摘しているように、MGXの創業パートナーの一人であるムバダラは、FTXの破産資産から取得したAnthropicの株式のうち約5億ドルを保有している。この利益相反について、アマゾンとグーグルがどれほど「ハッピー」であるべきかは想像に難くない!
7月末に説明したように、OpenAIは少なくとも30億ドル、より可能性の高いところでは100億ドルを調達する必要がある。2024年には50億ドルの損失を出すと予測されており、より複雑なモデルがより多くの計算リソースとトレーニングデータを必要とするため、この数字は増え続ける可能性が高い。AnthropicのCEOであるDario Amodei氏は、将来のモデルはトレーニングコストに1000億ドルも必要とする可能性があると予測している。
ところで、「1500億ドルの評価額」とは、OpenAIが投資家向けに同社の株を値付けした方法を指している。株式」という言葉もここでは少し曖昧だ。例えば、通常の企業であれば、1500億ドルの評価額で15億ドルの投資をすれば、その会社の株式は通常「1%」になるはずだが、OpenAIの場合はもっと複雑だ。
オープンAIは今年初め、1000億ドルの評価額で資金調達を試みたが、一部の投資家は価格が高すぎるとして躊躇した。The Informationのケイト・クラーク記者とナターシャ・マスカレンハス記者の言葉を引用)生成AI企業は過大評価されているとの懸念が高まっている。
資金調達ラウンドを完了させるために、OpenAIは非営利団体から営利団体へと変貌を遂げるかもしれない。The Informationのケイト・クラーク記者によると、このラウンドに参加した投資家は、(引用)「投資に対して伝統的な株式は得られない。その代わり、会社が利益を上げ始めたら、その利益の一部を約束されたユニットを手に入れることになる。
営利団体に切り替えたことでこの問題が解決されるかは定かではありませんが、OpenAIの「非営利団体+営利部門」という奇妙な企業構造は、2023年の投資の一部として、マイクロソフトがOpenAIの利益の一部を受け取る権利があることを意味しています。マイクロソフトは、2023年の投資の一部として、OpenAIの利益の75%を得る権利がある。理論的には、営利組織への移行は株式を含むことができるが。 しかし、OpenAIに投資すると、株式ではなく「利益分配ユニット」(PPU)を得ることができる。もしあなたがOpenAIのPPUを所有していても、会社が利益を上げることがなく、OpenAIが最終的に利益を上げると考えている人に売ることができなければ、あなたのPPUは無価値です。
週末、ロイターは、1500億ドルの評価は、OpenAIが企業構造全体を再編成し、その過程で投資家の利益に対する上限を撤廃できるかどうかに「依存する」とするレポートを発表した。この上限は現在、当初の投資額の100倍に制限されている。この利益上限は2019年に設定されたもので、OpenAIはこの上限を超える利益は「人類の利益のために非営利団体に還元する」と述べていた。近年、同社はそのルールを変更し、2025年から毎年20%ずつ利益上限を引き上げることを認めている。
OpenAIがマイクロソフトと既存の利益分配契約を結んでいることを考えると、言うまでもなく、その深く巨額の損失は、いかなる還元もせいぜい理論的なものだ。机上の空論だ。
たとえ500パーセント上昇したとしても、それ以上はゼロであり、最終的にはゼロのままです。
ロイターはまた、営利目的の構造(したがって、最近の800億ドルよりも高い評価額)に移行する場合、OpenAIは既存の投資家と再交渉を余儀なくされ、その投資家の株式は希薄化するだろうと付け加えています。
また、フィナンシャル・タイムズ紙は、投資家は「『(オープンエイの営利子会社への)投資は、精神的には寄付として扱われるべきである』という内容の運営契約に署名しなければならないだろう」と指摘しています!、、そしてOpenAIは "決して利益を上げないかもしれない"。このような条項は本当に非常識であり、OpenAIに投資し、その結果悪い結果を被る人は、完全に自己責任である。
現実には、投資家はOpenAIの一部を手に入れるわけでも、OpenAIをコントロールできるわけでもありません。利益への賭けだ。
OpenAIのモデルや製品(その実用性については後述する)は、経営的に極めて採算が合わない。The Informationのレポートによると、OpenAIはChatGPTとその基礎となるモデルをサポートするために、2024年にマイクロソフトに約40億ドルを支払うことになるそうです。つまり、マイクロソフトとの深いパートナーシップがなければ、OpenAIはサーバーに年間60億ドルも費やしていることになる。そして、以前にも説明したように、トレーニングコストは現在年間30億ドルで、今後もほぼ確実に増え続けるだろう。
7月にThe InformationがOpenAIの年間売上は35億ドルから45億ドルだと報じたのに対し、先週のThe New York TimesはOpenAIの年間売上は「現在20億ドル以上」だと報じた。"つまり、年末の数字はその見積もり範囲の下限に近い可能性が高いということです。
要するに、OpenAIは「お金を燃やしている」のであり、今後もさらにお金を燃やし続けるでしょう。お金を燃やし続けるためには、「決して利益を上げないかもしれない」という声明に署名した投資家からお金を集めなければならないだろう。
前にも書いたように、OpenAIのもう1つの問題は、生成AI(GPTモデルやChatGPT製品にまで及ぶ)が、その莫大なコストを正当化する複雑な問題を解決しないことだ。言い換えれば、彼らは何もわかっておらず、モデル開発者が驚くべき速さで使い果たそうとしている学習データに基づいて、答えを生成(または画像、翻訳、要約を生成)しているだけなのです。
モデルが明示的に真実でない情報を生成する(あるいは画像や動画にエラーのように見えるものを生成する)「幻覚」という現象は、既存の数学では解決できないものです。-既存の数学的ツールでは完全に解決できない。錯覚現象を軽減または緩和することは可能かもしれませんが、その存在が、ビジネスクリティカルなアプリケーションにおいて、生成AIを真に信頼することを難しくしているのです。
たとえジェネレーティブAIが技術的な問題を解決できたとしても、それが本当にビジネスに価値をもたらすかどうかは明らかではない。The Informationが先週報じたところによると、Microsoftの365スイート(Word、Excel、PowerPoint、Outlookなどが含まれ、特に企業向けのパッケージが多い。「製品をほとんど採用していない。440万人のユーザーのうち、わずか0.1~1%(1人30~50ドル)しかこれらの機能にお金を払っていない。AI機能をテストしているある企業は、「ほとんどの人は、現時点ではあまり価値を感じていない」と述べた。他の企業は、"多くの組織では、生産性やその他の分野での画期的な向上はまだ見られない "とし、"いつになるかはわからない "と述べた。
では、マイクロソフトはこれらのどうでもいい機能にいくら請求しているのでしょうか?
では、マイクロソフトはこれらの重要でない機能にいくら請求するのでしょうか?これは事実上、当初の料金の2倍を要求していることになる!-- そして、それほど便利には見えない。
マイクロソフトの問題は非常に複雑なので、将来的には専用のニュースコンテンツが必要になるかもしれないことを付け加えておく。
これがジェネレーティブAIの現状です。生産性とビジネスソフトウェアのリーダーが、顧客が喜んでお金を払う製品を見つけられないのは驚くべきことです。正当化する。マイクロソフトがこれほど高い料金を請求する必要があるとすれば、それはサティア・ナデラ氏が2030年までに5000億ドルの収益を達成したいと考えているか(マイクロソフトのアクティビジョン・ブリザード買収に関する公聴会で公開されたメモで明らかにされた目標)、価格を下げるにはコストがかかりすぎるか、あるいはその両方である。
しかし、ほとんどすべての人が、AIの未来は私たちを圧倒するものだと強調しています。
先週、私たちはそのいわゆる「未来」を初めて実際に垣間見た。しかし、それは大きな失望であることが判明した。
愚かな魔法のトリック
OpenAIは木曜日の夜、コードネーム「Strawberry」と呼ばれるo1をリリースした。コードネーム "Strawberry"-そしてその興奮は、歯医者に行くのと同じくらい無味乾燥なものだった。o1は、サム・アルトマンが一連のツイートで、OpenAIの "最もパワフルで整列したモデル".彼は、o1が「まだ欠点があり、制限されており、最初に使われたときのような印象的なパフォーマンスを一定期間使用した後に発揮することはない」と認める一方で、プログラミングや数学の問題、科学的な質問など、明確な正解があるタスクを扱うときには、o1はより正確な結果を提供すると約束した。
このこと自体、非常に明らかになったことだが、それについては後で詳しく説明しよう。まず、実際にどのように機能するかについて話そう。いくつか新しい概念を紹介するつもりですが、あまり詳しくは触れないことを約束します。もし本当にOpenAIの説明を読みたいのであれば、彼らの公式サイトの記事 - Learning to Reason with LLMsにあります。
ある問題に直面したとき、o1はそれを個々のステップに分解し、そのステップが最終的に正しい答えにつながることを期待します。(このプロセスを思考の連鎖と呼ぶ)。このプロセスは思考の連鎖と呼ばれる。 o1を同じモデルの2つの部分と考えると理解しやすい。
各ステップにおいて、モデルの1つの部分が強化学習を適用し、もう1つの部分(出力を生成する部分)がその進歩(「推論」ステップ)の正しさに応じて「報酬」を与えたり「罰」を与えたりする。そして、その進歩(その "推論 "ステップ)の正しさに応じて、"報酬 "または "罰 "を与え、罰を受けたときにその戦略を適応させる。これは、他の大規模な言語モデルの動作方法とは異なります。モデルは出力を生成し、それを振り返って、答えを生成してすぐに与えるのではなく、最終的な答えに到達するために「良い」ステップを無視したり認識したりします。
これは大きなブレークスルー、あるいは高く評価されている人工知能(AGI)への新たな一歩のように聞こえるかもしれませんが、そうではありません。-これは、OpenAIがo1をGPTのアップデート版ではなく、独立した製品としてリリースするという選択をしたことからもわかる。OpenAIが示した例(数学や科学の問題など)は、答えが事前に分かっているタスクであり、答えが正しいか正しくないかのどちらかであるため、モデルが各ステップで「思考の連鎖」を導くことができます。
OpenAIは、数学的であれ何であれ、答えが未知の複雑な問題をo1モデルがどのように解決するのかを示していないことにお気づきでしょう。また、OpenAI自身が認めているように、o1はGPT-4oよりも「幻覚」を見やすいというフィードバックを受けています。O1はGPT-4oよりも「幻覚」を見やすく、前モデルよりも答えを持っていないことを認めたがらないというフィードバックを受けている。これは、モデルには出力をチェックする部分があるものの、この「チェック」部分も幻覚の対象となるためです(時にはAIが意味のありそうな答えをでっち上げ、その結果幻覚を見ることもあります)。
OpenAIによると、o1は「思考の連鎖」メカニズムのため、人間のユーザーに対してもより説得力があります。o1 はより詳細な回答を提供するため、たとえその回答が完全に間違っていたとしても、人々はその出力をより信頼する傾向があります。
私がOpenAIを批判しすぎだと思うなら、同社がo1をどのように宣伝しているかを考えてみてほしい。
強化トレーニングのプロセスを「思考」や「推論」と表現していますが、実際は単なる推測であり、すべてのステップで正しいかどうかを推測しており、最終的な結果は多くの場合事前に分かっています。
これは人間、つまり本当の思想家に対する侮辱である。
人間の思考は、個人的な経験、生涯にわたって蓄積された知識、脳の化学反応など、複雑な要素に基づいている。複雑な問題を扱うとき、あるステップが正しいかどうかを「推測」することはあるが、その推測は具体的な事実に基づくものであり、o1のような不器用な数学に基づくものではない。
そして、なんといっても高い。
O1-previewの価格は、入力トークン100万個あたり15ドル、出力トークン100万個あたり60ドルだ。つまり、o1はGPT-4oの3倍のインプットと4倍のアウトプットを要求していることになる。しかし、隠れたコストがある。データサイエンティストのマックス・ウルフは、OpenAIの "推論トークン"-最終的な答えを導き出すために使われる出力-はAPIでは見えないと指摘する。APIで見ることができる。これは、o1がより高価であるだけでなく、製品の性質上、ユーザーがより頻繁に支払う必要があることを意味する。答えについて "考える "ために生成されたすべてのコンテンツ(はっきり言って、モデルは "考えて "いない)も課金されるため、プログラミングのような複雑な質問に対する回答は非常に高価になる可能性がある。
さて、正確性について話そう。 サム・アルトマンが設立したY Combinatorが所有するRedditのようなサイト、Hacker Newsでは、o1がプログラミングタスクのために存在しないライブラリを「でっち上げ」ているという苦情がありました。プログラミング・タスクのために存在しないライブラリや関数を「でっち上げ」、ウェブ上で容易に答えられない質問に答える際にミスを犯した。
Twitter上で、スタートアップの創業者で元ゲーム開発者のヘンリック・クニベルグ(Henrik Kniberg)氏は、o1氏に2つの数字の積を計算するPythonプログラムを書き、プログラムの出力を予測するよう依頼した。o1はコードを正しく書いたが(もっと単純に、たった1行でもよかったのだが)、実際の出力は完全に間違っていた。 AI創業者のKarthik Kannanもプログラミング・タスクをテストしたが、o1はAPIに存在しないコマンドを「でっち上げた」。
別のユーザー、サーシャ・ヤンシン(Sasha Yanshin)氏は、o1でチェスのゲームをプレイしようとしたが、o1は盤上に何もないところから駒を「作り出し」、ゲームに負けた。
ちょっといたずらっ子なので、o1に「A」のつく州をリストアップするよう頼んでみた。o1は18秒考えて、ミシシッピ州を含む37州の名前を答えた。正解は36州だったはずだ。
「W」のつく州を挙げてもらうと、11秒間考えて、実際にはノースカロライナ州とノースダコタ州が含まれていた。
また、「ストロベリー」というコードネームの中に「R」という文字が何回現れるかをo1に尋ねたところ、2回と答えた。
OpenAIは、o1が物理学、化学、生物学の複雑なベンチマークで博士課程の学生並みのパフォーマンスを発揮すると主張している。
OpenAI は、o1 が物理学、化学、生物学の複雑なベンチマークで博士課程の学生並みのパフォーマンスを発揮すると主張しています。
これはまさに、私が前回のニュースレターで予測した「大がかりで愚かなマジック」であり、オープンAIが「ストロベリー」を立ち上げたのは、AI革命がまだ健在であることを投資家や一般大衆に証明するためだけだったということは注目に値する。OpenAIは、AI革命が健在であることを投資家と世間に証明するためだけに「Strawberry」を立ち上げたが、その代わりに、不便で退屈で高価なモデルを立ち上げた。
さらに悪いことに、なぜ誰もがo1を気にする必要があるのかを説明するのは本当に難しい。 サム・アルトマンは彼の「推論能力」を自慢するかもしれないが、彼に資金を提供し続ける資金を持つ人々は、10~20秒の待ち時間、基本的な事実の正確さ、その他多くのことを見ている。サム・アルトマンは「推理力」を自慢するかもしれないが、彼に資金を提供し続けるお金を持っている人たちは、10~20秒の待ち時間、基本的な事実の正確さの問題、そして刺激的な新機能の欠如を見ている。
もはや誰も「より良い」答えなど気にしていない。彼らはまったく新しいものを求めているのだが、OpenAIがそれを実現する方法を知っているとは思えない。アルトマンは、o1を擬人化し、「思考」や「理性」を持たせようとしているが、これは明らかに一般的なAIへの一歩であることを示唆している。
実際、o1はOpenAIが必死で独創性がないことを示していると思います。
価格は下がらず、ソフトウェアは有用性を増しておらず、昨年11月以来私たちが耳にしてきた「次世代」モデルは失敗に終わっている。これらのモデルもまた、トレーニングデータを切実に必要としているため、ほとんどすべての大規模な言語モデルが何らかの著作権で保護されたコンテンツを吸収してしまっている。この緊急性から、ジェネレイティブ・ビデオの最大手企業のひとつであるランウェイは、自社のモデルを訓練するために何千ものYouTube動画や海賊版コンテンツを収集する「全社的な取り組み」を開始し、8月の連邦訴訟では、エヌビディアが「Cosmos」モデルを訓練するために多くのクリエイターと同じことをしていると非難された。
現在の法的戦略は基本的に、これらの訴訟が、これらのモデルのトレーニングを著作権侵害と定義するような判例を作るところまで到達しないことを祈りながら、糸にぶら下がっている状態です。
これらの訴訟は前進しており、8月には裁判官が、Stability AIとDeviantArt(モデルを使用している)に対する著作権侵害の申し立てと、Midjourneyに対する著作権および商標権侵害の申し立てをさらに認めました。AIモデルが学習データを "忘れる "ことは事実上不可能であり、一から学習し直す必要があるからだ。これには何十億ドルものコストがかかり、特に得意でないタスクをこなす効率が著しく低下する。
私は、この業界が浜辺の要塞のように根を張っていることを深く懸念している。ChatGPT、Claude、Gemini、Llamaのような規模の大規模な言語モデルは持続不可能であり、収益性への道筋はないように思われます。なぜなら、生成AIの計算集約的な性質により、それらを訓練するためには数十億ドルとは言わないまでも数億ドルのコストがかかり、膨大な量の訓練データが必要となるため、これらの企業は文字通り何百万人ものアーティストや作家からを盗み、そのデータから逃れることを望んでいるのだ。
これらの問題を脇に置いたとしても、ジェネレーティブAIとそれに関連するアーキテクチャは、革命的なブレークスルーを起こしたようには見えず、ジェネレーティブAIにまつわるハイプ・サイクルは、「人工知能」という言葉の意味にまったく合っていない。ジェネレーティブAIに関するハイプ・サイクルは、「人工知能」という用語の意味にはまったく合っていない。最高の状態でも、ジェネレーティブAIは時折、何らかのコンテンツを正しく生成したり、文書を要約したり、不確定な「より速い」速度で調査を行ったりすることができるだけだ。マイクロソフトのMicrosoft 365向けCopilotは、「何千ものスキル」と組織にとっての「無限の可能性」を持っていると主張しているが、それが示す例は、電子メールの生成や要約に過ぎない、
私たちは「初期段階」にいるわけではない。2022年11月以降、大手テック企業は、インフラや新興のAIスタートアップ、そして自社モデルに1500億ドル以上を投じ、投資してきた。openAIは130億ドルを調達し、Anthropicのように誰でも雇うことができる。
しかし、生成AIのための業界版マーシャル・プランは、4つか5つのほとんど同じ大規模言語モデル、世界で最も収益性の低い新興企業、そして何千もの高価だが平凡な統合アプリという結果をもたらした。凡庸な統合アプリ。
Generative AIは複数の嘘で販売されている:
1 AIである。4.止められない。
「パフォーマンス」といった言葉はさておき、生成されたコンテンツの「正確さ」や「速さ」を表現するためによく使われる。スキルレベルではなく、コンテンツ生成の「正確さ」や「スピード」を表すために使われることが多いのです。より強力というのは、「より多くのことができる」という意味ではなく、「より高価である」という意味であることが多い。
あらゆるベンチャーキャピタリストと大手テック企業の総力を結集してもなお、多くの人が喜んでお金を払うような、本当に意味のあるユースケースを見つけられないのであれば、それは新しいユースケースが存在しないということを意味します。大規模な言語モデル--そう、そこに何十億ドルもの資金が投入されているのだ--が、テック大手やOpenAIがさらに1500億ドルを投じたからといって、突然より高性能になるわけではない。誰もこれらをより効率的にしようとしていないし、少なくとも誰も成功していない。もし誰かが成功すれば、大騒ぎになるだろう。
私たちが直面しているのは、よくある妄想である。著作権の盗用に基づく行き詰まった技術(あらゆる時代の技術の創造につきまとう問題であり、避けることはできない)であり、稼働し続けるためには絶え間ない資本を必要とし、せいぜい以下のようなサービスを提供している。何十億ドルものコストをかけて、実際には提供されないある種の自動化された機能に見せかけた、せいぜいオプションのようなサービスを提供し、今後もそうし続けるだろう。ジェネレーティブAIは、お金(またはクラウドクレジット)ではなく、自信で動いている。問題は、投資資本と同じように、信頼も有限の資源であるということだ。
私が危惧しているのは、サブプライムローン危機のようなAI危機の真っ只中にいるのではないかということです!.
「AI主導型」と銘打たれた新興企業のほぼすべてが、GPTやクロードの何らかの組み合わせに基づいている。これらのモデルは大赤字の2社によって開発され(Anthropicは今年27億ドルの損失を出すと予測されている)、その価格戦略は利益を上げるためではなく、より多くの顧客を引き付けるために設計されている。前述したように、OpenAIは資金をマイクロソフトに依存しており(マイクロソフトから受け取る「クラウドクレジット」や有利な価格設定など)、その価格設定は投資家でありサービスプロバイダーであるマイクロソフトに完全に依存している。その価格設定は、投資家およびサービスプロバイダーとしてのマイクロソフトの継続的な支援に完全に依存しており、AnthropicとAmazonおよびGoogleとの取引も同様の問題に直面している。
彼らの損失から推測すると、もしOpenAIやAnthropicが実際のコストに近い価格設定であれば、APIコールの価格は10倍から100倍に上昇する可能性がある。しかし、The Informationが報じた数字を考えてみよう。OpenAIは、マイクロソフトのサーバーコストが2024年には40億ドルに達すると予想している。OpenAIはまだ年間50億ドル以上の損失を出している。
OpenAIは、そのモデルを実行するのに必要な金額のほんの一部しか請求していない可能性が高く、現状を維持できるのは、これまで以上に多くのベンチャーキャピタルを調達し続けることができ、マイクロソフトから有利な価格設定を受け続けることができた場合に限られるでしょう。と見ている。確かではないが、AnthropicはAmazon Web ServicesやGoogle Cloudからも同様に好意的な価格設定を受けていると考えるのが妥当だろう。
マイクロソフトがOpenAIに100億ドルのクラウドクレジットを与え、OpenAIがサーバー費用に40億ドル、さらにトレーニング費用に仮に20億ドルを費やしたと仮定すると、この費用は新しいo1と「Orion」モデルではカバーされません。「OpenAIはおそらく2025年までにさらにクレジットを必要とするか、マイクロソフトに実際の現金で支払うようになるでしょう。
マイクロソフト、アマゾン、グーグルは、有利な価格設定を提供し続けるかもしれませんが、問題は、これらの取引が彼らにとって有益かどうかです。マイクロソフトの最新の四半期決算報告に見られるように、投資家はジェネレーティブAIのインフラを構築するために必要な資本支出(CapEx)に対する懸念を表明しており、多くの投資家はこの技術の潜在的な収益性に懐疑的です。
そして、私たちが本当に知らないことは、これらの巨大テック企業にとって、ジェネレーティブAIがどの程度収益性があるのかということです。確かなことはわかりませんが、もしこれらのビジネスが少しでも利益を上げているのであれば、そこから得られる収益について話しているだろうと思います。
ジェネレーティブAIのブームに対する市場の極端な懐疑的な見方と、エヌビディアのCEOであるJen-Hsun Huang氏がAIへの投資収益率について本質的な回答をしなかったことで、エヌビディアの時価総額は1日で2790億ドルも急落した。これは米国市場史上最大の株式市場の暴落であり、失われた価値の総額はリーマン・ショック5回分のピークに匹敵した。エヌビディアは破綻する危険性すらなかったし、仮に破綻していたとしても、システミックな影響はこれほど深刻ではなかっただろう。を歪める効果を示している。
マイクロソフト、アマゾン、グーグルは8月上旬、AI関連の巨額の設備投資で市場から大きな打撃を受けた。次の四半期に、新しいデータセンターとNVIDIA GPUに投資した1500億ドル(またはそれ以上)から大きな収益の伸びを示すことができなければ、さらに大きなプレッシャーにさらされるだろう。
大手テック企業にとって、もはやAI以外に創造的な市場はないことを忘れてはならない。マイクロソフトやアマゾンのような企業が成長鈍化の兆しを見せ始めると同時に、まだ競争力があることを市場に示そうと急ぎ始めている。検索と広告にほぼ独占的に依存するマルチリスク独占企業であるグーグルもまた、投資家の注目を集めるために何か新しく人目を引くものを必要としていた。そして、その収益のほとんどは、AIを「実験」している企業が得ているようだ。
現時点では、2つの可能性があります:
1.大手ハイテク企業は、自分たちが深刻な問題を抱えていることに気づき、ウォール街の不興を買うことを恐れて、AI関連の設備投資を減らすことを選択します。AI関連の資本支出を減らすことを選択する。
2.新たな成長を求める大手ハイテク企業は、破壊的な事業を維持するためにコスト削減を決断し、従業員を解雇し、生成AIの「死の競争」を強化するために他の事業から資金を移す。".
どちらが起こるかは明らかではない。もし大手テック企業が、ジェネレーティブAIは未来ではないという現実を受け入れた場合、ウォール街に見せるものは他に何もないが、メタのような「効率化の年」戦略を採用し、「投資を減らす」と約束しながら設備投資を減らす(そして従業員を解雇する)かもしれない。「と約束する。ウォール街を満足させたいという思いとは裏腹に、少なくとも今のところは、まだ収益性の高い独占事業があるからだ。
しかし、今後数四半期は、AIによる実際の収益成長を見る必要があり、それはAIが「成熟市場」や「年率成長率」であるという曖昧な主張ではなく、実質的なものでなければならないだろう。「AIが「成熟市場」や「年率成長率」であるという漠然とした主張。もし設備投資がそれに伴って増加するのであれば、この実質的な貢献はかなり高くなる必要がある。
この成長が起こるとは思えない。それは2024年第3四半期であろうと、第4四半期であろうと、2025年第1四半期であろうと、ウォール街はAIに対する飽くなき欲望に対して大手ハイテク企業に罰を与え始めるでしょう。
私は、2つ目のシナリオの方が可能性が高いのではないかと少し心配しています。これらの企業は「AIは未来だ」と確信しているため、現実世界の問題を解決するソフトウェアの開発から文化が切り離されてしまい、会社全体が燃え尽きてしまう可能性があるのです。
大手ハイテク企業は、経営コンサルタントに徹底的に毒されている。