セミナー情報や最新業界レポートを無料でお届け
メールマガジンに登録
米NVIDIAと米OpenAIが最近、最大1000億ドル(約15兆円)を投じて10ギガワット(GW)規模のデータセンターを建設し、100万個規模の画像処理半導体(GPU)を用いて次世代大規模言語モデル(LLM)を訓練する計画を明らかにした。この発表を受け、市場ではAIインフラと計算能力(コンピューティングパワー)の将来性に対する期待感がさらに高まった。
複数のファンドマネージャーがこのほど、中国メディアの取材に応じ、世界のAI競争は「超大規模・超高消費電力・超高額投資」を伴うAIインフラの建設を競い合う段階に入ったと指摘した。現在、半導体製造から液冷技術、コンピューティング・クラスター、電力設備まで、AIコンピューティングをめぐる産業チェーンの構築が活発化しているという。
AIの計算能力、生成AIの研究開発の速度やモデル精度、ひいては国際競争力を左右する重要な要素となる。ファンドマネージャーらは、今後のAI競争の焦点は「モデルの開発」から、より基盤的かつ核心的な「コンピューティングパワーの確保」へと移行しつつあるとの見方を示した。
*1ドル=約153円で計算しています。
(36Kr Japan編集部・茶谷弥生)
セミナー情報や最新業界レポートを無料でお届け
メールマガジンに登録





フォローする
フォローする



