安全な超知性を求めて
人工知能の革新的な進歩の代名詞であるイリヤ・スーツケバーは、2024年5月、AIコミュニティで大きな話題となった。
人工知能(AGI)の倫理的発展を目指す研究機関、OpenAIを共同設立、スッツケバーが突然、創設に携わった組織を去った .
彼の退団は、"スーパーアラインメント・チーム "のリーダーの一人であった元同僚のヤン・ライクと同じ日に発表された。
AI開発における安全性の優先順位をめぐって、スッツケバーとOpenAIのリーダーとの間に亀裂が生じたという噂が流れ始めた。
しかし、この劇的な撤退がサツキーバーの旅の終わりではなかった。わずか1ヵ月後、彼は次のベンチャー企業、セーフ・スーパーインテリジェンス社(SSI)を発表した。
この新会社はOpenAIとは大胆に一線を画し、何よりも安全を優先する超知能の構築にレーザーフォーカスを当てた。
イリヤ・スーツケバーとは?
ソーシャル:X |リンクトイン
イリヤ・スーツケバーはイスラエル系カナダ人のコンピューター科学者で、人工知能、特にディープラーニングの分野で多大な貢献をしている。
2012年のImageNetコンペティションで画期的な結果を出し、ディープラーニングを主流に押し上げた畳み込みニューラルネットワーク、AlexNetの共同発明者として最もよく知られている。
Sutskeverはまた、安全な人工知能の開発を専門とする研究会社OpenAIの共同設立者であり、元チーフサイエンティストでもあった。
OpenAI在籍中は、GPTシリーズの大規模言語モデルの開発で主導的な役割を果たした。
2024年6月、安全で有益な超知能の創造に専心することを目的に、スッツケバーは安全超知能社を共同設立し、チーフ・サイエンティストを務めている。
なぜ彼はOpenAIと別れ、SSIを設立したのか?
Sutskever'のOpenAIからの離脱は、AI研究の優先順位に関する根本的な意見の相違に起因していた。
サッツケバー(右)とOpenAI CEOのサム・アルトマン(左)。
彼は、OpenAIは、ますます強力になるAIシステムの安全性を確保することよりも、能力の急速な向上を優先していると考えており、この懸念は、潜在的に危険なChatGPT 4.0言語モデルのリリースによって浮き彫りになった。
スッツケバーは、他の安全研究者たちとともに、進歩とともに発展していくためには強固な安全プロトコルが不可欠だと感じていた。
スッツケバーによれば、このようなズレはOpenAIの指導層が「ピカピカの製品」に注力していることに起因しており、最終的に彼は安全なAIの開発のみに集中するためにSSI(Safe Superintelligence Inc.
セーフ・スーパーインテリジェンス社について
SSIのミッション・ステートメントは、安全な超知性を開発することである。
この一点集中主義は、会社の構造と運営のあらゆる面に浸透している。
複数の製品ラインを持ち、商業的なプレッシャーがかかる従来のハイテク企業とは異なり、SSIは合理的なアプローチで事業を展開している。
管理オーバーヘッドと製品サイクルは最小限に抑えられ、リソースとフォーカスは、安全なスーパーインテリジェンスの構築という中核目標にしっかりと集中することができる。
さらに、SSIのフォロワー数は、Xアカウントを作成したばかりにもかかわらず、最初の投稿からわずか2週間で68,400人以上に急増した。
この急成長は、プロジェクトを取り巻く期待と関心の高さを反映している。
スーパーインテリジェンスで安全な未来を築くSSIのアプローチ
SutskeverはSSIを、それまでのAI研究所とは異なる革命的な存在として構想していた。
SSIのアプローチの基本は以下の通りである:
単焦点
SSIは単なる会社ではなく、ミッション・ステートメントを具現化したものだと言えるかもしれない。
同社のアイデンティティは、安全なスーパーインテリジェンスの構築という中核目標を中心に展開されている。これは、製品サイクルや利益率に惑わされることなく、合理的な運営を行うことを意味する。
すべての意思決定と資源配分は、彼らの最優先目標を達成するために細心の注意を払って行われる。
安全と能力:共生のダンス
SSI'の哲学の中心には、安全と能力は相互に排他的なものではないという考え方がある。
彼らは、AI能力の進歩が、鉄壁の安全対策を伴って同時に開発される未来を思い描いている。
これによって、超知能は制御不能な力ではなく、善のために行使される強力な道具となる。
リーン、クラック'チームでコードを解く
SSIは、自分たちが直面している大きな課題を認識しており、研究者の軍隊を作ろうとはしていない。
その代わりに、彼らは世界で最も優秀な頭脳を持つ選りすぐりのグループを丹念に集めている。
このエリート集団は、安全な超知能の開発のみに焦点を当て、最高のアイデアが花開くような協力的な環境を育成する。
戦略的立地
SSIは、優秀な人材を惹きつける上で、地理的な立地が重要な役割を果たすことを理解しています。
パロアルトとテルアビブに戦略的にオフィスを構え、最先端の研究と優秀なエンジニアや研究者の豊富な人材に溢れている。
しかし、なぜテル・ヴィヴィなのか?
あるXユーザーは、SSIがあそこにある理由を話してくれた。
翻訳する:
イリヤの新会社SSIについて、誰もが見落としていることがある。彼らのオフィスはシリコンバレーだけでなく、イスラエルのテルアビブにもあるのだ。イリヤとダニエル・グロスは幼少期をイスラエルのエルサレムで過ごし、イスラエルの人材密度を高く評価しているからだ。
長期的な視野に立ったビジネスモデル
SSIは、安全な超知能の追求はスプリントではなくマラソンであると認識している。
彼らのビジネスモデルは、商業化の短期的な圧力から逃れるように設計されている。
そのため、四半期ごとの利益に縛られることなく、長期的な研究開発に専念することができる。
SSIの指導力
この野心的なベンチャーはサツキーバー一人ではない。彼は、ダニエル・グロスとダニエル・レヴィという、AI界で実績のある2人の人物に加わっている。
ダニエル・グロス戦略的ヘルムスマン
ソーシャル:X|リンクトイン
AI界のベテランであるグロスは、SSIに豊富な経験をもたらしている。SSIを共同設立しCEOを務める前は、グロスはアップルでAIリードという名誉ある役職に就いていた。
彼の旅は、1991年に生まれたイスラエルのエルサレムから始まった。
2010年、グロスはYコンビネーター・プログラムに受け入れられた最年少の創業者となり、オンライン・アカウントを統合する検索エンジンの草分け的存在であるGreplin(後にCueと改名)を立ち上げて注目を集めた。
起業家としての才能が認められ、グロスは2011年にフォーブス誌のテクノロジー部門「30アンダー30」に選出された。Business Insiderが選ぶ2011年シリコンバレーの25歳以下の25人 .
彼の成功は、2013年のアップルによるCue'買収でも続いた。
その後、グロスはY Combinatorにパートナーとして参加し、AIに焦点を当て、2017年に"YC AI"プログラムを立ち上げた。2018年には、アーリーステージのスタートアップ・アクセラレーター兼ファンドであるPioneerを設立した。
グロスのAIに対する深い理解と、そのようなAIを活用することで、より高度なAIを実現することができる。起業家としての実績 SSIの戦略的方向性を形成する極めて重要な人物である。
彼の洞察は、SSIがAIの安全性と開発の複雑さを乗り越えていく上で非常に重要なものとなるだろう。
AI助成金やアンドロメダ・クラスターのような画期的な研究イニシアチブのために資本を集めた実績があることから、投資家はグロスの資金確保能力に自信を持つことができる。
ダニエル・レヴィ:テクニカル・ヴィルトゥオーゾ
ソーシャル:X|リンクトイン
AI研究の第一人者としてのレヴィの名声は先行している。
OpenAI在職中に磨いた大規模AIモデルのトレーニングに関する専門知識は、SSIにとってかけがえのない財産だ。
共同設立者であり、主任科学者でもあるレヴィの技術力は、その資格だけにとどまらない。
彼はOpenAIでSutskeverとともに働いた経験があり、この画期的なプロジェクトを推進する上でシームレスなコラボレーションを保証する。
レヴィの役割は、AIの安全性と能力の限界を押し広げるというSSIの揺るぎないコミットメントを反映している。
AIセクターへの潜在的影響
SSIの使命は、いくつかの点でAI分野を再定義する可能性を秘めている。
第一に、安全性を優先することで、SSIは責任あるAI開発の新たな基準を設定している。
彼らの成功は、他の企業にも同様の安全第一のアプローチを採用するよう促す可能性がある。
第二に、安全プロトコルにおけるSSIのブレークスルーは、超知能だけでなく、幅広いAIシステムに適用できる可能性がある。
これにより、AI技術の安全性と信頼性が全体的に大きく進歩する可能性がある。
課題と反論
その野心的な目標にもかかわらず、SSIはいくつかの課題に直面している。
批評家たちは、超知能を開発すること自体が技術的に困難であり、強固な安全対策を統合することはプロセスをさらに複雑にすると主張している。
能力と安全メカニズムの両方を同時に開発することは、楽観的すぎるかもしれず、予想されるスケジュール内で達成するのは難しい。
加えて、SSIの安全性重視の姿勢は、刻々と変化するAI市場の力学に適応する能力を制限しているのではないかという意見もある。
スーパーインテリジェンスの開発だけに集中することは、新たなトレンドや予期せぬ障害に対応するSSIの能力を制限することになりかねない。
さらに、少数精鋭のチームに頼ることには潜在的なリスクがある。
主要メンバーが脱退したり、成果を出せなかったりすれば、グループ内の知識や専門知識の集中が脆弱性になりかねない。
SSIは公的資金で運営されているのか?
本日2024年7月8日現在、Safe Superintelligence Inc.(SSI)は資金調達や支援者についての情報を開示していない。
創業者たちの経歴から、投資家の可能性があるとの憶測もあるが、確証はない。
しかし、SSI自身は財務状況について口をつぐんでいる。
安全な超知能の大胆な追求
安全な超知性を達成するための探求は、技術的なハードルと哲学的な難問をはらんだ、大胆な事業である。
SSIはレーザー・フォーカスと無駄のないチームワークで、この課題に対する大胆なアプローチを体現している。
彼らの成功が実現すれば、安全性を優先し、責任ある研究のための高いハードルを設定することで、AI開発の新時代を切り開くことができるだろう。
しかし、前途は多難である。
少人数のチームで、複雑な超知能と安全性を効果的に操ることができるのか?
この急速に進化する分野で、彼らの適応能力は制限されてしまうのだろうか?
AIの未来と人類への影響を再定義する可能性を秘めたSSI'の歩みが注目される。