Monday, August 14, 2023 11:36 AM
アマゾン、生成人工知能向けの二つのカスタム・チップを開発中
過去数ヵ月ほど、マイクロソフト(Microsoft)やグーグル(Google)、エヌビディア(NVIDIA)、オープンAI(OpenAI)といった技術大手らが生成人工知能のハードウェアとソフトウェア・サービスを大幅に増強する取り組みを加速させている。
ニーオウィン誌によると、アマゾン(Amazon)はそれらの大手にくらべると、生成人工知能の分野でややおとなしかったが、最近では同社もその取り組みに注力する姿勢を鮮明化させている。
アマゾン・ウェブ・サービシズ(Amazon Web Services=AWS)は現在、エヌビディアのグレイス・ホッパー(Grace Hopper)というスーパーチップに匹敵する二つのカスタム・チップ「インファレンシャ(Inferentia)」と「トレイニアム(Trainium)」の最新版の開発を進めている。
人工知能、特に生成人工知能ソフトウェアを走らせることや大規模言語モデル群(large language models=LLMs)訓練の最適化に特化したチップの設計が昨今における技術業界の大きな潮流の一つだ。
AWSはカスタム・チップの開発と製造に慣れている。同社は、約10年前にナイトロ(Nitro)という人工知能チップを独自に開発した。アマゾンによると、AWSのサーバー1台には、少なくとも一つのナイトロが搭載されている。
同社がテキサス州オースティンの施設で進めているインファレンシャとトレイニアムの最新版の開発の背景には、エヌビディアのGPU(graphics processing unit)で走るサーバー群にAWSの顧客会社らが依存することなくLLMsを訓練できるようにするというねらいがある。
ただ、アマゾンはそれと同時に、AWSのサーバーでもエヌビディアの人工知能チップも使っている。
同社によると、AWSを機械学習に使っている顧客会社数は「10万を超える」。億単位の顧客を持つAWSにとってその数は微々たるものだ。しかし、AWSの顧客基盤の巨大さを考慮すれば、AWSの自前チップを基盤とするハードウェアで生成人工知能を使う開発者らの数は世界中で激増する可能性がある。
https://www.neowin.net/news/amazon-is-working-on-two-custom-generative-ai-chips-for-aws-large-language-model-training/