ニュース
大容量・低遅延のIOWN APNで複数のデータセンターを接続した秘密計算によるAI分析、NTTが実用性を実証
一般的な単一データセンターとは異なる運用が可能に
2024年6月14日 06:00
日本電信電話株式会社(NTT)は6月12日、IOWN APN(オールフォトニクスネットワーク)で結んだ複数のデータセンター(DC)に分散配置された計算処理環境において、秘密計算によるAI分析を実用的な時間で達成できることの実証を発表した。
これは、距離的に離れた複数のDCに配置した秘密計算サーバーを、大容量・低遅延通信が可能なIOWN APNで結ぶことで、AI分析が実用な時間で可能であることを実証したもの。AIやIoTをはじめとしたコンピューティング機能の需要増大にともない、災害対策、エネルギー最適化、セキュリティの観点において、安全にデータ活用できるプラットフォームの実現が期待できるという。
秘密計算システムが注目の一方、単一DCが一般的だった
近年、データを適切に管理し利活用を促進する技術として、秘密分散を利用した秘密計算技術が注目されている。従来の秘密分散を利用した秘密計算システムでは、高速に分析ができる反面、大量に発生する通信の影響(通信遅延)を最小化するため、全てのサーバーを1つのDCに配置することが一般的だった。
今回の実証実験は、大容量・低遅延での通信が特徴である、IOWN APNを生かし、分散配置されたサーバによる秘密計算システムを構築した。「IOWN APNで接続している場合」「一般的なネットワーク接続を模擬した場合」「単一のDC内の場合」の3種類のネットワーク構成で、計算処理性能をそれぞれ測定をして比較した。
IOWN APNを生かし、複数DC間でも大容量・低遅延で通信可能に
その結果、10万件のダミーデータセットを学習対象としたAIモデルの学習処理において、有意差があった。なお、今回のAIモデルの学習処理はGBDT(Gradient Boosting Decision Tree:勾配ブースティング決定木)およびFFNN(Feedforward Neural Network:順伝播型ニューラルネットワーク)を利用した。
GBDTは機械学習モデルの1つであり、木構造(樹形図)を用いたデータ分析手法である「決定木」を複数組み合わせたもの。FFNNはニューロンを組み合わせて層状のネットワークにした機械学習モデル「ニューラルネットワーク(NN)」の一種で、入力層・隠れ層・出力層の3種類の層を順番に、値を伝搬させることで最終結果を導き出す。
特にFFNNにおいて、一般的なネットワーク接続が約157分であるのに対して、IOWN APNの場合には約22分と、およそ1/7倍の時間で学習が完了したという。また、同一DC内で実施した場合のネットワーク接続は約15分の時間を要するが、地理分散した場合でも、同一DC内と比較しておよそ1.5倍程度の時間となり、実用的な時間で処理可能であることが確認できたという。
この結果から、今までは通信速度および遅延の関係から同一のDC内に限定していた秘密計算システムを、一定距離にあるDC間を接続して構成可能であることが分かった。
今後、「安全・安心な複数事業者でのデータ利活用」「地域DCを統合した計算リソース活用」など、IOWN技術を応用したユースケース検証と、導入に向けた運用課題の解決に向け、研究などを進めていくという。