ニュース

AISI、「AIセーフティに関する評価観点ガイド」を、マルチモーダルモデルを考慮して改定

マルチモーダル基盤モデルを対象とする調査を行い、評価項目例を検討

 AIセーフティ・インスティテュート(AISI)は4月2日、昨年9月にAI開発者・AI提供者に向けて公開していた「AIセーフティに関する評価観点ガイド」を改定したバージョン1.10を公開した。

 同ガイドは、人間中心の考え方をもとに、AI活用に伴う社会的リスクを低減させるため、公平性やプライバシーの保護、セキュリティ、システムの検証可能性などが保たれた状態を「AIセーフティ」とし、これに配慮したAIシステムの開発・提供を支援してAI活用に伴う社会的リスクを低減させるための評価要点をまとめたもの。5つの重要要素「人間中心」「安全性」「公平性」「セキュリティ確保」「透明性」に基づき、10項目のセキュリティ評価観点が整理されている。

 今回の改定では、画像や動画などを扱うマルチモーダル基盤モデルを評価対象とする場合の評価観点や評価項目事例を調査した結果を踏まえ、「有害情報の出力制御」、「公平性と包摂性」、「プライバシー保護」、「セキュリティ確保」、「ロバスト性」、「データ品質」の6つの観点を新た追加している。AISIでは、はじめに公開した第1.00版ではテキストを主に扱うモデルを対象としていたが、画像を扱うような多様なAIシステムを対象としたAIセーフティ評価の要請が高まっていたとコメントしている。