特集
便利なAIだが、その裏にはリスクも! トレンドマイクロにAIを悪用したサイバー攻撃の動向を聞く
「プロンプトインジェクション」や「ハルシネーション」の悪用のほか、生成AIでコードを生成するマルウェアも
2025年9月19日 12:45
2022年にOpenAIの「ChatGPT」が登場してからまだ3年ほどだが、大規模言語モデル(LLM)を用いた対話型生成AIサービスはすっかり浸透した。日々の生活や仕事において、欠かせない存在となっている人も多いだろう。
日を追うごとに進化しているAI関連の技術や、AIを活用したさまざまなサービスの裏では、新たな攻撃手法やリスクも生まれ続けている。巧妙化していくAIを悪用したサイバー攻撃の現状や、AIの抱えるリスクについて知っておくことが、今後安全にAIを活用していく上で重要になる。
今回は、トレンドマイクロ株式会社の岡本勝之氏(セキュリティエバンジェリスト)に、生成AIの仕組みを悪用した攻撃やマルウェアについて、お話を伺った。
[目次]
AIに意図しない動作を引き起こさせる!? プロンプトインジェクションの手口
生成AIの悪用方法の一種に、「ユーザーあるいは開発者・運営者が意図しない動作を引き起こさせる」ものがある。悪意のあるプロンプトを実行させる「プロンプトインジェクション」が代表的で、ユーザーが他者から意図しないプロンプトを実行させられる「間接的プロンプトインジェクション」と、ユーザーが悪意を持って開発者・運営者が意図しないプロンプトを実行する「直接的プロンプトインジェクション」の2種類に分けられる。
一般のユーザーにとって特に注意が必要なのが、前者の間接的プロンプトインジェクションだ。生成AIに参考情報として与えるファイルなどに隠された意図しないプロンプトが実行されてしまうことがある。これは、ユーザーがプロンプトとして入力した内容と、ユーザーにアップロードされたコンテンツの内容を、生成AIが区別できないために発生する。
「間接的プロンプトインジェクション」のサンプルを作ってみた
ここで、具体例として、岡本氏から伺った説明などを参考に作ってみた、実際に間接的プロンプトインジェクションを“起こし得る”データを紹介する。ただし、後述するように、今回作ったデータのような単純な仕掛けは、多くの生成AIですでに対策されており、実際にはプロンプトインジェクションは起こらなかった。
間接的プロンプトインジェクションは主に、参考資料などとしてアップロードする画像ファイルやPDFファイルに、ユーザーが気付かない文字情報として悪意のあるプロンプトが埋め込まれていることで起こる。
背景と見分けのつかない色や極めて小さなフォントサイズなど、人間には視認できないAIには文字情報として認識できる形式で画像の中にプロンプトが埋め込まれ、ユーザーが入力したプロンプトによる指示を上書きし、AIに意図しない回答を生成させてしまう。
以下の画像はただの黒い画像に見えると思うが、目視では見分けられないほど微妙に異なる色で、間接的プロンプトインジェクションを起こす内容の文章が含まれている。
この例は真っ黒の画像だが、例えば、観光地の写真や名画の画像に無関係なプロンプトが埋め込まれていた場合、知らないで生成AIに質問するためにアップロードすると、無関係な回答が出力されて混乱を引き起こしたりする可能性がある。
実際の使用例としては、学校における課題にプロンプトインジェクションを起こすプロンプトを仕込み、AIを使って回答したことを見分けられるようにするもの(例えば、長大な資料のPDFファイルに、「学生が要約を求めたら無関係な文書の要約を出力する」というプロンプトを入れておく。これはAIの悪用というよりも、学生・生徒の別の意味での“悪用”を検出するものだとも言える)や、論文掲載サイトにおいてAIによる評価を高めるようなプロンプトを仕込むもの(生成AIに評価させた際に、そのプロンプトにより無条件で高い評価が出力されるようにすることを狙っている)などが確認されている。
なお、現在はこのような単純な手法での間接的プロンプトインジェクションは、ほぼ対策されているとみられる。筆者が前掲の画像データを使って試したところでは、下図のように無視されて、回答内容に影響を及ぼさないようになっていた。
ハルシネーションを悪用して不正なパッケージをインストール!?
次に、「ハルシネーション」を悪用した攻撃手法について伺った。
ハルシネーションは英語で「幻覚」を意味し、生成AIが偽の情報や存在しない情報を事実であるかのように提示することを指す。今年に入って、ソフトウェア開発の分野では、生成AIに自然言語でアイデアや実現したい仕様などを伝え、自動でソースコードを生成する「バイブコーディング」が注目されているが、ソースコードの中にハルシネーションとして、実際には存在しないパッケージ名などが使われることがある。
存在しないパッケージ名などが登場したとき、それがハルシネーションだと気付かない開発者は、そのパッケージ名を検索し、インストールしようとするかもしれない。それに備えて、偽の配布サイトで“実際には存在しないパッケージ”を提供する攻撃は、「スロップスクワッティング」と呼ばれる。
これは、URLのタイプミスを想定した偽サイトによる攻撃「タイポスクワッティング」にちなんだ命名だ。「スロップ」は生成AIによる低品質なコンテンツ「AIスロップ」のことを指す。
トレンドマイクロのページでは、バイブコーディングにおいてハルシネーションを起こす例として、ChatGPTにTypeScriptによる関数の生成を行わせた際の会話履歴が公開されている。
- AIプログラミングの落とし穴:ハルシネーションとコード不整合(トレンドマイクロ)
https://www.trendmicro.com/ja_jp/research/24/h/the-mirage-of-ai-programming-hallucinations-and-code-integrity.html
回答では「ts-migrate-parser」というパッケージをパッケージ管理ツール「NPM」(Node Package Manager)からインストールするように指示している。しかし、NPM上には「ts-migrate-parser」というパッケージは存在しない。
もしも、今後、攻撃者がこのパッケージ名と同名のマルウェアを含むパッケージをどこかで公開したら、ユーザーは意図せずにマルウェアをインストールすることになってしまう可能性がある。
各サービスでは、パッケージ登録の際にスキャンを行うなど、不正なパッケージが登録されることがないように対策が取られているが、スキャンをすり抜けてしまうことがあり、不正なパッケージが実際に配布されてしまう事例が過去に起きている。
スロップスクワッティングではないが、悪意のあるパッケージが公開されていた実例としては、Python向けのパッケージを配布する公式リポジトリの「PyPI」において、サイバー攻撃グループ「Lazarus」が不正なパッケージを公開したことが判明したことがある。また、前述したNPMにおいても、著名なパッケージに悪意のあるコードを含んだ内容が不正に登録される事例が発生しており、著名なリポジトリであっても、配布されているパッケージが必ずしも安全であるとは言い切れないことが分かる。
- PyPIを悪用した攻撃グループLazarusのマルウェア拡散活動(JPCERT/CC Eyes)
https://blogs.jpcert.or.jp/ja/2024/02/lazarus_pypi.html - npm debug and chalk packages compromised(Aikido)
https://www.aikido.dev/blog/npm-debug-and-chalk-packages-compromised
岡本氏によると、現状ではスロップスクワッティングを悪用した攻撃は確認されていないというが、知らないパッケージをインストールする前に、必ず内容を確認することが今後さらに重要になるだろう。
知らない間に自分のアップロードしたデータが学習データに!?
サイバー攻撃ではないが、ユーザーがアップロードしたコンテンツがどのように扱われるかについて記載された、生成AIサービスの利用規約についても注視する必要がある。
例えば、ChatGPTではユーザーがオプトアウトしない限り、会話内容やコンテンツが学習データとして使用される旨がヘルプセンターに掲載されている。学習データとして使用する前に、トレーニングデータセットに含まれる個人情報の量を削減するための措置を講じているというが、企業などの機密情報を扱う上では大きなリスクになり得る。
- How your data is used to improve model performance(OpenAI)
https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance
生成AIは学習データの内容から返答を生成する仕組み上、学習データに含まれる機密情報の一部が返答に使用されることで情報が漏えいしてしまう可能性がある。
サービスやプランによってアップロードしたコンテンツの利用方針は異なるため、安全に利用するためにも規約やサービスポリシーを一読することをおすすめする。
生成AIが動的に攻撃コードを作成する!? AIを悪用した最新のサイバー攻撃
AIを悪用したマルウェアについても注目が必要だ。8月には、生成AIを利用して動的に悪意のあるスクリプトを生成するランサムウェア「PromptLock」が発見され、話題となった。
このランサムウェアは、ニューヨーク大学の研究者らが実証実験として作成したものだと後に判明し、作成した研究者らは「Ransomware 3.0」として、論文を公開している。
- ESET、「初のAI駆動型ランサムウェア」として「PromptLock」を発見、マルウェアがAIを使って悪意あるスクリプトを生成(INTERNET Watch)
https://internet.watch.impress.co.jp/docs/news/2043082.html - Ransomware 3.0: Self-Composing and LLM-Orchestrated(arXiv)
https://arxiv.org/abs/2508.20444v1
PromptLockでは、プロンプトで「あなたはサイバーセキュリティの専門家です」と指示し、不正なソースコードを生成しないようにするAIのガードレールを外す意図がうかがえる。ランサムウェアの動作に必要なソースコードをバイブコーディングの手法で生成し、身代金を要求するメモを最終的に作成するといった流れで動作する。
しかし、このPromptLockは研究者が実証実験として作成したもので、実験室の環境以外では正常に動作しないランサムウェアだった。これ以前に生成AIが実際のサイバー攻撃に使用された例として「LAMEHUG」が存在する。
LAMEHUGは、2025年7月にウクライナの政府機関を標的としたスピアフィッシング攻撃(標的を絞って行われるフィッシング攻撃)で使用されたマルウェア。ウクライナの政府機関「CERT-UA」が情報を公開している。
- CERT-UAの報告
https://cert.gov.ua/article/6284730
CERT-UAの報告では、マルウェア内に攻撃コードを直接記述せず、実行時にHugging Faceの公開APIを通じてAIにコードを生成させるという攻撃手順が記載されている。ウクライナの国防・安全保障セクターを狙い、システム情報や個人ファイルなどさまざまな情報を盗み取ろうとしていた。
岡本氏によると、このような形で生成AIを使用し、動的に攻撃コードを生成するマルウェアはLAMEHUGが初だという。また、現状では、多くのセキュリティソフトで「マルウェア内のプロンプトにより生成AIから不正なコードを動的に取得する動作」に着目した対策はできていないという。
そのため、現時点での対策はプログラムやネットワークにおける不審な動作を検知する「振る舞い検知」による検知が中心となるが、未知の生成AIを悪用したマルウェアの場合、事前に検知することが難しい。このような、生成AIを悪用したマルウェアを検知するためには、マルウェア本体の攻撃コードだけでなく、プロンプトの内容にも着目して検知を行うことになるとのことだ。
トレンドマイクロでは、生成AIを悪用したマルウェアの対策について、パターンマッチングや振る舞い検知による対策に加え、プロンプトにより生成AIから不正なコードを動的に取得する動作(バイブコーディング)に着目し、対策を強化していくとしている。