ニュース
総務省、AI開発者・AI提供者向けに「AIのセキュリティ確保のための技術的対策に係るガイドライン」を公表
2026年4月1日 06:30
総務省は3月27日、AI開発者・提供者向けに「AIのセキュリティ確保のための技術的対策に係るガイドライン」を公表した。
同ガイドラインの公開は、2025年6月に閣議決定された「デジタル社会の実現に向けた重点計画」に基づく。総務省では、2025年9月から開催されていたサイバーセキュリティタスクフォースのAIセキュリティ分科会における検討や意見募集を踏まえて、AIのセキュリティ確保のための技術的対策例を示すものとして同ガイドラインを策定。2025年12月に実施した意見募集の結果とともに、このたび公表した。
ガイドラインは、総務省が経済産業省とともに策定した「AI事業者ガイドライン」の共通の指針や、AIセーフティ・インスティテュート(AISI)による「AIセーフティに関する評価観点ガイド」で示された「AIセーフティにおける重要要素」「AIセーフティ評価の観点」を踏まえ、AIの「セキュリティ確保」について取り扱う。想定読者は、AI事業者ガイドラインの定義における「AI開発者」(AIシステムを開発する事業者)、および「AI提供者」(AIシステムをアプリケーションなどに組み込んだサービスを提供する事業者)。
対象とするAIは、大規模言語モデル(LLM)およびLLMを構成要素に含むAIシステム。AIエージェントについては、「技術が急激な発展の途上にあり、これに特有の脅威や対策を安定的に確定することが現時点では困難」であることを理由に、対象外としている。
ガイドラインでは、「不正操作による機密情報の漏えい、AIシステムの意図せぬ変更や停止が生じないような状態」に対する脅威への技術的対策例を整理している。具体的には、策定時点における脅威として、LLMに細工をした入力を行うことで不正な出力をさせる「プロンプトインジェクション攻撃」、膨大な処理を必要とする入力によりAIシステムへ負荷を負わせる「DoS攻撃(サービス拒否攻撃)」の2つを挙げ、これらへの対策を主に解説した内容となっている。
