MicronのHBM3E 12Hi 36GBをAMDがInstinct MI350で採用
Micron Technologyは、同社の12層積層 HBM3E(HBM3E 12Hi)の36GB製品がAMDの次世代AI GPUソリューション「Instinct MI350シリーズ」に採用されたことを発表した。
2.3TBのHBM3Eの活用でFP4精度で最大161PFLOPSの演算性能を提供
AMDのCDNA 4アーキテクチャを採用したInstinct MI350は、288GBのHBM3Eメモリを統合することで、最大8TB/s の帯域幅を実現。これにより単一のGPUでありながら最大5200億パラメータのAIモデルを効率的に処理することを可能としたとする。
また、フルプラットフォーム構成では、最大2.3TBのHBM3Eを搭載することが可能で、FP4精度で最大161PFLOPSの理論ピーク性能を提供するという。
加えて、Micronの得意とする低消費電力技術により、高い電力効率が提供され、大規模言語モデルの学習や推論、科学技術シミュレーションといった処理において優れたスループットを発揮し、データセンターはワットあたりの計算性能を最大化しつつ、柔軟な拡張性を確保できるようになるともしている。
なお、MicronのHBM3E 36GB製品は、すでに複数の主要AIプラットフォームで認証を取得済みであるという。