ニュース

Google、機械学習を高速化する専用チップ「TPU」を自社開発

 Googleは18日、機械学習アルゴリズムの高速化に特化したカスタムASICによる自社開発チップ「Tensor Processing Units(TPU)」を自社のデータセンターで利用していることを公式ブログで明らかにした。

 TPUは、Googleがオープンソースとして提供している機械学習向けフレームワーク「TensorFlow」を高速に動作させるためのカスタムチップ。

 機械学習は、Googleが提供するサービスのうち、ストリートビュー、音声検索、検索結果を処理する「RankBrain」、さらにInboxの機能である「スマート返信」など100以上の項目に用いられている。

 TPUはすでに1年以上、同社のデータセンターで稼働しており、機械学習向けに最適化が進められていた。Googleによればこの間に、「通常であれば、ムーアの法則で3世代にあたる7年を要する技術進歩を達成した」とのこと。

 また、Googleが3月より提供している開発者向けのクラウド型の機械学習プラットフォーム「Google Cloud Machine Learning」や、囲碁の世界チャンピオンであるイ・セドル氏に圧勝した「AlphaGo」にも利用されているという。

AlphaGoが動作するサーバーラック。TPUはラック内にあるHDD用のスロットに格納されている

(岩崎 宰守)