Tuesday, November 14, 2023 11:21 AM

エヌビディア、最新の人工知能チップ「H200」を発表

 エヌビディア(Nvidia)は11月13日、最新のGPU(graphics processing unit)「H200」を発表した。

 CNBCによると、H200の現用機種「H100」は、人工知能モデルの訓練にとって欠かせないチップであり、生成人工知能ブームを推進している原動力の一つでもある。H200はそれをさらに進化させたGPUであり、生成人工知能の訓練やソフトウェアの運用をさらに前進させる主力チップと位置づけられる。

 昨今、世界中で多くの人工知能新興企業や技術大手らが生成人工知能の開発や運用のために、H100をはじめとする人工知能チップの争奪戦を繰り広げている。人工知能チップの供給が需要に追いつかないためだ。

 投資銀行レイモンド・ジェイムスの試算によると、H100の価格は2万5000ドル~4万ドルで、最大級の生成人工知能モデルを訓練するには数千個のH100が連携して動作する必要がある。

 エヌビディアの株価は人工知能チップの旺盛な需要のおかげで2023年の約11ヵ月だけで230%以上も上昇した。

 H200のおもな特徴は、141GBの次世代「HBM3」メモリーが搭載されていることだ。エヌビディアによると、H200はH100のほぼ2倍の速度で演算する。H200は、2024年第2四半期に出荷開始される予定だ。

 エヌビディアによると、H200はH100と互換する。新旧両チップの互換性は、H100でモデルを訓練した人工知能会社がH200で走らせる場合に、サーバー・システムやソフトウェアを変えたり更新したりする必要がないことを意味する。

 そのことはまた、4GPUまたは8GPUのサーバー構成でも同じ電算環境を維持できるほか、H200とアーム(Arm)ベースド・プロセッサーを組み合わせたGH200と呼ばれるチップでも利用できることを意味する。

 H200のおもな競合品であるAMDのMI300Xは、H200と同様に、前機種よりメモリーが大きく、ハードウェア上で大規模人工知能モデルを稼働し推論を実行するのに役立つ。

https://www.cnbc.com/2023/11/13/nvidia-unveils-h200-its-newest-high-end-chip-for-training-ai-models.html