Thursday, September 15, 2022 11:50 AM
人工知能処理をさらに効率化させる新規格を提唱
インテル(Intel)とアーム(Arm)、エヌビディア(Nvidia)は9月14日、人工知能向けの共通相互運用フォーマット(common interchange format)と彼らが呼ぶ仕様草案を発表した。
テッククランチ誌によると、3社が発刊した規格案「8ビット浮動小数点(8-bit floating point=FP8)」は、人工知能訓練(人工知能システム工学)と推論(システム実行)の両方において、メモリーの使用と作業を最適化することによって、人工知能開発を加速させる可能性がある、と3社は説明した。
人工知能システムを開発する際、データ科学者たちは、システムを訓練するためのデータを単に収集するだけでなく、工学上の重要な選択に迫られる。そのおもな一つは、システムの「重み」を表すフォーマットの選択だ。「重み」とは、学習データから学んだ予想内容に影響を与える要因のことだ。
一般的なフォーマットとしては、システムの重みを16ビットで表現する半精度浮動小数点(FP16)と、32ビットで表現する単精度(FP32)がある。半精度以下は、人工知能システムの学習と実行に必要なメモリー量を減らし、計算を高速化し、さらに帯域幅と電力使用量も削減できる。しかし、そのために精度を犠牲にする。
インテルとアーム、エヌビディアを含む電算技術業界の多くは、その解決策としてFP8を推進する方針だ。エヌビディアのシャー・ナラシムハン製品販促責任者によると、機械視認や画像生成といった用途において、FP8は、16ビットと「同等の精度」を可能にすると同時に「大幅の」高速化を実現する。
3社が提唱した新規格案は、電気および電子の技術に関する標準や規格を管理するアイトリプルイー(IEEE=Institute of Electrical and Electronics Engineers)に近日中に提出され、検討される予定だ。
https://techcrunch.com/2022/09/14/intel-amd-and-nvidia-propose-new-standard-to-make-ai-processing-more-efficient/