米グーグルが独自に定義した深層学習用の浮動小数点精度「bfloat16」が広がりを見せている。米インテルや米フェイスブックなどに続き、英アームがbfloat16をサポートする。2019年10月8~10日(米国サンノゼ)で開催した年次プライベートイベント「Arm TechCon 2019」で明らかにした。

「Armv8-A」アーキテクチャー(命令セット)の次世代仕様にbfloat16 データフォーマットを追加する。まずは、「Neoverse(ネオバース)」ブランドのCPUコア「Zeus」でbfloat16をサポートする(関連記事)。Zeusは7nm+(EUVありの7nm)プロセスでの製造を前提にしており、2020年発売予定である。

アームは「Armv8-A」アーキテクチャー(命令セット)の次世代仕様にbfloat16 データフォーマットを追加する。写真は「Arm TechCon 2019」での発表の様子。写真内の人物は同社 SVP & GM of InfrastructureのDrew Henry氏(撮影:日経 xTECH)
[画像のクリックで拡大表示]

 bfloat16では、浮動小数点の精度を示す「仮数部」に7ビットを、数値の幅を示す「指数部」に8ビットを割り当てる(関連記事)。仮数部が23ビット、指数部が8ビットのFP32(単精度浮動小数点)に比べて精度は下がるものの、指数部は8ビットで扱える数値の幅(ダイナミックレンジ)は同じにしてデータサイズを抑えたことが特徴である。このため、ディープラーニング(深層学習)を用いた学習処理に向くとされる。

この先は有料会員の登録が必要です。今なら有料会員(月額プラン)が12月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら