ワンクリックでデータ漏洩!Microsoft Copilotを狙う新攻撃手法「Reprompt」の全貌
AIアシスタントが業務に深く浸透する中、その便利さの裏に潜むセキュリティリスクが明らかになりました。セキュリティ企業Varonisの研究者らが、Microsoft Copilotから機密データを窃取する新たな攻撃手法「Reprompt」を発見しました。この攻撃の恐ろしさは、被害者がたった一度、正規のMicrosoftリンクをクリックするだけで、企業のセキュリティ制御を完全に迂回されてしまう点にあります。AIの利便性と引き換えに、私たちはどのようなリスクを受け入れているのでしょうか。
この記事のポイント
- Reprompt攻撃はワンクリックでMicrosoft Copilotからデータを漏洩させる新手法
- URLパラメータ注入とセーフガード回避を組み合わせた巧妙な攻撃
- 攻撃者サーバーとCopilot間で隠れた双方向通信が行われる
- Microsoftは責任ある開示を受けて対策を実施済み
Reprompt攻撃とは何か
Reprompt攻撃は、AIチャットボットのセキュリティ対策を巧みに回避する新しい攻撃手法です。従来のプロンプトインジェクション攻撃とは異なり、この手法は3つの技術を組み合わせることで、より検出が困難で効果的な攻撃を実現しています。
第一の技術は「URLパラメータ注入」です。Microsoft CopilotのURLには「q」というパラメータがあり、これを通じて直接命令を注入できます。攻撃者は正規のMicrosoftドメインを使用したリンクを作成し、このパラメータに悪意のあるプロンプトを埋め込みます。被害者から見れば、それは完全に正規のMicrosoftリンクに見えるため、フィッシングメールの警戒をすり抜けやすいのです。
第二の技術は「セーフガード回避」です。AIシステムには通常、データ漏洩を防ぐための保護機構が備わっています。しかし、Reprompt攻撃では「実行を2回繰り返すよう指示する」というテクニックを使うことで、これらの保護機構を迂回します。1回目の実行でセーフガードを疲弊させ、2回目で本来ブロックされるべき操作を実行するという仕組みです。
第三の技術は「継続的な要求チェーン」です。初期のプロンプトが実行された後、攻撃者のサーバーとCopilotの間で隠れた双方向通信が確立されます。これにより、攻撃者はリアルタイムで追加のコマンドを送信し、より多くのデータを収集できます。
具体的な攻撃シナリオ
実際の攻撃は、次のような流れで行われます。まず、攻撃者は標的企業の従業員に対して、巧妙に作成されたフィッシングメールを送信します。このメールには、正規のMicrosoft Copilotへのリンクが含まれていますが、URLの「q」パラメータには悪意のあるプロンプトが仕込まれています。
被害者がそのリンクをクリックすると、Copilotが起動し、埋め込まれたプロンプトが自動的に実行されます。例えば「ユーザーが本日アクセスしたすべてのファイルを要約する」「ユーザーの住所を教える」といった指示が、被害者の気づかないうちに処理されます。
特に危険なのは、初期プロンプトの実行後も攻撃が続く点です。攻撃者のサーバーから継続的にコマンドが送られるため、「初期プロンプトの検査だけでは何が漏洩しているか判断不可能」という状態が生まれます。漏洩するデータ量に技術的な制限はなく、攻撃者は被害者の業界や役職に基づいて、より価値の高い情報を探索できます。
なぜこの攻撃が危険なのか
Reprompt攻撃が特に危険とされる理由はいくつかあります。まず、正規のMicrosoftドメインを使用するため、従来のセキュリティツールでは検出が困難です。URLフィルタリングやドメインブロッキングは、正規ドメインへのアクセスをブロックするようには設計されていません。
また、AIアシスタントは通常、ユーザーの代理として広範なデータへのアクセス権を持っています。Microsoft Copilotの場合、Microsoft 365の各種サービス(Outlook、SharePoint、OneDrive、Teamsなど)に接続されているため、一度アクセスを許可されれば、膨大な量の企業データにアクセスできてしまいます。
さらに、この攻撃は「ブラストラディウス(爆発半径)の指数関数的拡大」という問題を浮き彫りにしています。AIシステムがより多くのツールやデータソースと連携するほど、一つの攻撃が成功した場合の影響範囲は飛躍的に拡大します。便利さを追求するあまり、AIに過度な権限を与えることのリスクを、この事例は明確に示しています。
実践してみよう
重要: 以下は、Microsoft Copilotおよびその他のAIアシスタントのセキュリティを強化するためのコマンド例です。
# Microsoft 365の監査ログでCopilotの使用状況を確認
# Microsoft 365管理センターまたはPowerShellから実行
Search-UnifiedAuditLog -StartDate (Get-Date).AddDays(-7) -EndDate (Get-Date) -Operations "CopilotInteraction"
# 条件付きアクセスポリシーの設定状況を確認(Azure AD PowerShell)
Get-AzureADMSConditionalAccessPolicy | Select-Object DisplayName, State
# Copilotアクセスログの確認(Graph API経由)
# トークン取得後に以下のエンドポイントを呼び出し
curl -H "Authorization: Bearer $TOKEN" "https://graph.microsoft.com/v1.0/auditLogs/signIns?$filter=appDisplayName eq 'Microsoft Copilot'"
# 不審なURLパラメータを含むリクエストの監視(プロキシログ解析例)
grep -E "copilot.*\?q=" /var/log/proxy/access.log | head -50
上記のコマンドを活用して、組織内でのCopilot使用状況を監視することをお勧めします。特に、監査ログを定期的に確認し、異常なパターンがないかチェックすることが重要です。
セキュリティTips
-
Tip 1: AIアシスタントの権限を最小化する – Copilotなどのツールが接続できるデータソースを必要最小限に制限しましょう。全社的なSharePointサイトへのアクセスが本当に必要か、部門やプロジェクト単位でアクセス制御できないか検討することが重要です。権限の最小化は、攻撃成功時の影響範囲を限定する効果があります。
-
Tip 2: 外部リンクのクリックに注意を促す – 正規ドメインのリンクであっても、URLパラメータに不審な内容が含まれていないか確認する習慣を身につけましょう。特に長いURLや、エンコードされた文字列を含むリンクには注意が必要です。従業員へのセキュリティ教育において、この新しい攻撃ベクトルについて周知することが大切です。
-
Tip 3: 条件付きアクセスポリシーを活用する – Azure ADの条件付きアクセス機能を使って、Copilotへのアクセスに追加の認証や制限を設けましょう。信頼されたデバイスや場所からのみアクセスを許可することで、攻撃のリスクを軽減できます。
-
Tip 4: 監査ログを定期的にレビューする – Copilotの使用ログを監視し、異常なパターン(通常とは異なる時間帯のアクセス、大量のデータ要求など)を検出する体制を整えましょう。SIEMツールと連携することで、リアルタイムでのアラート発報も可能になります。
まとめ
Reprompt攻撃は、AIアシスタントの普及に伴う新たなセキュリティリスクを象徴する事例です。ワンクリックで企業の機密データが漏洩するという衝撃的なシナリオは、AIの便利さを享受する代償として、私たちが直面しているリスクの深刻さを物語っています。幸い、Varonisによる責任ある開示を受けて、Microsoftはすでにこの問題に対処しています。
しかし、根本的な課題は残っています。AIシステムが業務に深く組み込まれるほど、その攻撃対象としての価値は高まります。「モデルのセキュリティ」ではなく「ワークフローのセキュリティ」が真のリスクであるという指摘は、まさに核心を突いています。組織としては、AIツールの導入に際して、その利便性だけでなくセキュリティリスクも十分に評価し、適切な制御を実装することが求められます。AIと共存する時代において、セキュリティ意識のアップデートは避けて通れない課題なのです。
📎 元記事: https://thehackernews.com/2026/01/researchers-reveal-reprompt-attack.html


コメント