イベントレポート

CEATEC 2023

AI学習を高速化するプロセッサーや1000億パラメーターの大規模言語モデルなどが目を見張るPreferred Networks

MN-Coreサーバを使った材料シミュレーションをリアルタイムで実演

Preferred Networksのブース

 10月17日~20日に幕張メッセで「CEATEC 2023」が開催中だ。その中のPreferred Networksのブースで展示されていたのが、CEATEC AWARD 「アドバンステクロノロジー部門 準グランプリ」を受賞した「MN-Coreシリーズ」だ。

 MN-Coreシリーズは、同社が神戸大学と共同開発したAIプロセッサーで、ディープラーニング用のアクセラレーター。AIの学習を高速化し、消費電力あたりの演算性能で世界最高水準を実現したというもの。

 ブースでは、そのMN-Coreを4基搭載したサーバーを使って実際にリアルタイムで結晶構造探索を行うデモを実施。これまでであれば大きなスーパーコンピューターでも数週間かかるような作業が、ディープラーニングとMN-Coreを使うことで数時間でできるようになるという。また、MN-Coreの後継機となる「MN-Core 2」も展示。従来モデルと比較して、ラックあたりの演算性能は3倍、電力あたりの演算性能は33%向上しているとのこと。また、18日14時からの講演では、今後のMN-Coreシリーズの開発ロードマップも発表される。

MN-Coreサーバを使った材料シミュレーションをリアルタイムで実演。また、右側の青いのが後継機となるMN-Core 2

 また、同社で開発している、マルチモーダル基盤モデルについても紹介されていた。

 テキスト、画像、動画、3Dといったデータに加えて、プラントセンサー、分子構造、ゲノムといった特殊なデータを入力できる特化型基盤モデルを組み合わせることで、従来の大規模言語モデルだけでは解決できなかったような課題を解決できるマルチモーダル基盤モデルの実用化を目指しているとのこと。

 そのコアとなるのが、同社が今年9月に公開した大規模言語モデルの「PLaMo」。PLaMoは、チャットなどで重要な日本語性能に加え、プログラミング言語の理解のためなど、産業用途で重要になる英語性能も高めているのが特徴で、日本語モデルとしては最大規模の130億パラメーター(13B)のモデルをゼロから学習しているという。

左のパネルがPLaMoの紹介、右のパネルは同社が開発を目指しているマルチモーダル基盤モデルの解説

 将来的にはさらに学習規模を拡大し、2024年には、1000億パラメーター(100B)の大規模言語モデルと、それをコアとしたマルチモーダル基盤モデルの商用提供を目指しているというから、今後も注目したい。

 ブース内では、他にも4Dスキャン、3Dスキャンなどと基盤モデルと連携した同社プロダクトの紹介なども行われていたので、興味のある方はぜひブースを訪れてもらいたい。

MN-Coreによる高速化事例や基盤モデルとの組み合わせを紹介
18日のブースセッション
19日のブースセッション
20日のブースセッション