Monday, November 16, 2020 5:32 PM

アマゾンも自前チップに移行

 アマゾン(Amazon)は11月12日、同社の自然言語処理人工知能(仮想執事)アレクサ(Alexa)に対応する端末に搭載されるカスタム設計チップ群を自社製に切り替える方針を明示した。

 ベンチャービート誌によると、同社は、エコー(Echo)をはじめとする仮想執事端末製品(スマート・スピーカー)の演算処理速度を速めると同時に生産コストを引き下げるために、脱エヌビディア(Nvidia)製チップを加速させる。

 アマゾンの仮想執事端末は、利用者からの口頭での質問内容をデータ・センターに転送し、アレクサ基盤の人工知能プラットフォームによってその内容を解析して回答を導き出す。それを端末経由で利用者に提示する際、テキストから音声に変換する必要があり、その演算処理に使われるチップ群にエヌビディア製がこれまで使われてきた。

 アマゾンはそれらを自社開発のインファレンシア(Inferentia)に切り替える。2018年に発表されたインファレンシアは、テキストから音声への変換や画像認識に使われる機械学習ソフトウェアの動作を高速化するよう設計されている。

 アマゾン・ウェブ・サービシズ(Amazon Web Services=AWS)やマイクロソフト、グーグルといったクラウド電算サービス大手らはこれまで、演算処理用チップの巨大顧客だった。インテルやエヌビディア、そのほかの演算処理チップ大手らは、クラウド電算需要の高まりからチップ販売を増やし、恩恵を受けてきた。

 しかし、昨今、人工知能関連ハードウェアまたはサービスを提供する大手らは、伝統的な半導体大手らのチップから離れ、独自開発のチップに移行する動きを活発化させている。アップルがインテルとの15年間の取り引き関係から自社製チップに移行することを明示した新型マック群を先日発表したことはその典型例だ。

 その背景には、自社製品群のために最適化されたチップを設計および生産することで、中核技術である演算処理用チップでの他社依存から抜け出すと同時に、チップ調達コストを抑えようという思惑がある。

 アマゾンはまた、クラウド基盤の顔認識サービス「リコグニッション(Rekognition)」でもインファレンシアに移行し始めたことを明らかにした。リコグニッションがこれまでどこのチップを採用してきたかについては非公表。

https://venturebeat.com/2020/11/13/amazon-shifts-some-alexa-and-rekognition-computing-to-its-own-inferentia-chip/