第三回:GPUとAIサーバーの進化(半導体のトレンド) ブックマークが追加されました
第二回では、データセンター市場について説明した。第三回の本稿では、AI技術の発展と普及に不可欠なGPUやAIサーバーといった半導体のトレンドについて解説していく。
近年AI関連の技術は大きく進歩しているが、特に注目すべきは、生成AIの台頭だろう。2022年11月、OpenAIの発表から、わずか2カ月で1億人以上のユーザーを獲得したことは記憶に新しい。生成AIには大量のデータを学習させる大規模言語モデル(LLM)が必要で、学習量が多いほど精度や品質が向上する。例えば、GPT初期のモデルでは学習されたパラメーター数は約1.2億であったのに対しGPT-3では1750億まで増加した。LLMのトレーニングには大規模な計算リソースが必要で、MicrosoftやAmazon、GoogleなどのハイパースケーラーによるクラウドベースのAIサービスが利用されることが多い。このようなAIデータセンターには、AI処理に適した機器が導入されている。
生成AIの核となるLLMを構築するためには大量のデータを学習させる必要がある。この際、大量の学習用データに対して似たような演算処理を繰り返すが、このような類似する演算の大量並行処理を得意とするのがGPUである。GPUは元々ゲーム用3Dグラフィクス処理のために開発された半導体だが、大量データの並列処理を得意する特性からAIの学習・推論プロセスに使用されており、AIデータセンターでは通常のサーバーよりも大量のGPUを搭載したAIサーバーが使用される。このGPUはNIVIDIAが圧倒的なシェアを持っている。拡大するGPU需要に連動して同社の時価総額は急上昇しており、2024年6月18日にはMicrosoftを抜いて世界首位となった1。
そのようなAI半導体は、AIサービスを提供するハイパースケーラー各社も注目するところとなり、各社が相次いで自社のAIサービスに特化したAI半導体の設計に乗り出している。だが、依然として市場におけるNVIDIAの求心力は強く、同社は1年に1回というハイペースで新製品を投入しGPUの性能進化を牽引している。
2024年時点、市場投入されているNVIDIAの最新GPUはTSMCの4Nプロセスで製造されるHopper(H100)2であるが、2025年には4Nの改善プロセスである4NPで製造されるBlackwellと呼ばれる新製品が市場投入されることがすでに公表されている3。Blackwell GPUはNVLink4と呼ばれるGPU相互接続インターフェースで最大72個までを相互接続し一つのGPUシステムとして扱うことが出来る。前世代のHopperでの相互接続は最大8個までだったが、Blackwell世代ではAIデータセンター事業者はより大規模な計算リソースを構築することが可能となった。システムレベルで比較すると、Blackwell72個を接続したシステムは前世代のHopper8個を接続したシステムと比較して45倍の演算能力を実現しており、具体的には秒あたりの浮動小数点計算量を示すFLOPS5が32から1440に向上している。その一方で消費電力の増加は僅か10倍に留まっており、電力当たりの演算性能は4.5倍向上している。こうしたハードウェアの進化に加えNVIDIAは同社のGPUを使用したハードウェア環境にデプロイ可能な高速化されたAI モデルなども提供しており6、GPU市場で同社を追うAMDやINTELに対してさらなる差別化を図っている。
Blackwellは少ない枚数であれば空冷ラックでも使用可能だが、72個をまとめて扱う場合には強力な冷却システムが必要でNVIDIAより専用の液冷技術を搭載したボードが提供されている7。また自社のAIサービスに最適化されたAIチップ「MAIA100」を自社開発したMicrosoftもMAIAの性能を最大限に引き出すための液冷システムを開発しており8、今後最先端のAIデータセンターではGPUの電力消費・発熱増加に対応し液冷サーバーの採用が進んでいくと予見されている。
今後のAIデータセンターでは、増加する電力消費や発熱問題に対応する省エネ技術や冷却技術も大きな進化が求められる。AIサービスを提供するハイパースケーラーやGPUメーカーなどが、こうした技術まで包括的にカバーする垂直統合化の動きが演算に係る半導体周辺市場の特徴と言えるだろう。
AI用の大規模な計算処理の高速化の為にはデータ保存しGPUやCPUに送り込むメモリーも高速である必要があり、HBM9と呼ばれる高速メモリーが採用されている。HBMは複数のDRAMダイを垂直に積み重ね、計算処理を行うCPUコアの近くに配置するという技術でDRAMダイ同士やCPUとの接続距離が短くなることから高速・低遅延かつ電力ロスの少ないデータ転送が実現される。HBMはSKハイニックスがアドバンスト・マイクロ・デバイス(AMD)との共同開発し2013年に市場投入しており、以降NVIDIAのGPUなどでも採用されAI半導体における高速メモリーのデファクト技術となっている10。技術的に先行したSKハイニックスは2024年現在も技術的優位性を維持し市場シェア首位の座を守っているが11、マイクロン・テクノロジーやサムスン電子なども同市場への本格参入を検討しており、今後競争が激化していくことが予想されている。
AIの学習用に大量のGPUが必要となることが2024年前半までのAI半導体の大きなトピックだったが、2025年以降の新たな動きとしては、従来よりも小さなデータ量で高い学習精度を実現するSLM技術の台頭や推論用半導体需要の盛り上がりなどがある。また、従来は米国企業が開発中心だったAI半導体領域に、日本企業の新規参入の動きも顕在化してきており、日本半導体再興という観点からも目が離せない市場となっている。
児玉 英治/Kodama Eiji
デロイト トーマツ コンサルティング合同会社
シニアマネジャー
日系半導体メーカー、シンクタンクを経て現職。半導体・電子部品業界を中心に事業戦略・業務プロセス変革などの構想策定から実行支援まで幅広いプロジェクトに従事。デロイトの半導体知見を集積する半導体CoEのグローバルメンバーの一員。
【シリーズ】AIデータセンター、中長期視点の課題やシナリオ
関連リンク
大手通信会社の海外M&A部門を経て現職。AI・5G・ロボティクス・デジタルツインなどのエマージングテクノロジー領域の新規事業戦略策定・実行支援、中長期のイノベーション戦略策定、R&D戦略・ポートフォリオマネジメントなど多数のプロジェクトに従事している。 関連するサービス・インダストリー ・通信・メディア・エンターテイメント >> オンラインフォームよりお問い合わせ