MicronのHBM3E 12Hi 36GBをAMDがInstinct MI350で採用

Micron Technologyは、同社の12層積層 HBM3E(HBM3E 12Hi)の36GB製品がAMDの次世代AI GPUソリューション「Instinct MI350シリーズ」に採用されたことを発表した。

  • GPUとHBMの関係性のイメージ

    GPUとHBMの関係性のイメージ (出所:Micron)

2.3TBのHBM3Eの活用でFP4精度で最大161PFLOPSの演算性能を提供

AMDのCDNA 4アーキテクチャを採用したInstinct MI350は、288GBのHBM3Eメモリを統合することで、最大8TB/s の帯域幅を実現。これにより単一のGPUでありながら最大5200億パラメータのAIモデルを効率的に処理することを可能としたとする。

また、フルプラットフォーム構成では、最大2.3TBのHBM3Eを搭載することが可能で、FP4精度で最大161PFLOPSの理論ピーク性能を提供するという。

加えて、Micronの得意とする低消費電力技術により、高い電力効率が提供され、大規模言語モデルの学習や推論、科学技術シミュレーションといった処理において優れたスループットを発揮し、データセンターはワットあたりの計算性能を最大化しつつ、柔軟な拡張性を確保できるようになるともしている。

  • Instinct MI350のパッケージイメージ

    Instinct MI350のパッケージイメージ。1パッケージ上にアクセラレータのダイとHBM3Eが搭載されていることがわかる (出所:AMD)

なお、MicronのHBM3E 36GB製品は、すでに複数の主要AIプラットフォームで認証を取得済みであるという。